💥14 herramientas secretas impulsadas por #RStats para ahorrar tiempo y esfuerzo en tus proyectos de datos (¡No te lo pierdas!):👀
1️⃣ ¡Edita tus datos de forma interactiva (y guarda el código)! 👀
📦 'editData' es un complemento de RStudio para editar un data.frame o un tibble de forma interactiva
🔗 buff.ly/3U5Tgjy
3️⃣ ¡Elige los colores para tus gráficos de forma interactiva!
📦colourpicker te ayuda a elegir el color y lo actualiza en tiempo real para que puedas ver los cambios de inmediato
🔗 github.com/daattali/colou…
4️⃣ ¡Edita los themes de ggplot2 a golpe de click y personaliza tus gráficos!
📦 ggThemeAssist te permite elegir/ajustar cualquier detalle de tus gráficos
🔗 github.com/calligross/ggt…
8️⃣ ¡Convierte tus análisis en documentos, informes, presentaciones y tableros reproducibles y de alta calidad!
✅ #RMarkdown (o #Quarto) une texto, código y resultados en un único documento
¡Adiós copy & paste, adiós errores!
1️⃣1️⃣ ¡Visualiza paso a paso tus canalizaciones de datos!👀
📦ViewPipeSteps crea pestañas con la vista de datos con los resultados de las funciones encadenadas en tuberías (pipes %>%)
🔗 github.com/daranzolin/Vie…
1️⃣2️⃣ Analiza de manera sencilla las expresiones regulares
- Crea interactivamente tu expresión regular
- Busca coincidencia de cadenas
- Consulta la ayuda interactiva y los recursos incluidos para aprender expresiones regulares
🔗 github.com/gadenbuie/rege… #rstats#datamanagement
1️⃣3️⃣ ¡Si quieres estar a la última con todas las novedades de paquetes de #RStats apunta este addin!💥
- Busca paquetes relevantes
- Obtén metadatos del paquete
- Descubre paquetes
- Mantente al día con CRAN
🔗 buff.ly/2QBkrVP #ML#IA#BigData#datamining#programming
1️⃣4️⃣¡Integra #chatgpt3 en tus análisis de datos con #RStats!
📦gpttools incluye:
📄comentarios de roxygen
💬código de explicación
🧪sugiere pruebas unitarias para funciones
🚀convierte scripts en funciones reutilizables
🔗 github.com/JamesHWade/gpt… #ChatGPT#AI#ML#tech#Data
😉Sígueme para obtener más herramientas y recursos de #DataScience#ML#IA#RStats y aprende las mejores técnicas y enfoques.
¿Cuál es la herramienta que más te ha gustado de esta lista?, ¡Comenta abajo!👇
🤦🏻♀️ Incumplir la normalidad no es un pecado universal. Es grave o irrelevante según qué inferencia haces, con qué tamaño muestral, con qué diseño y para qué objetivo. Tratar la normalidad como un interruptor on/off es lo peligroso.
💡 Consecuencias en inferencia y predicción: 👇
Consecuencia en inferencia
1️⃣Estimación de efectos (medias, coeficientes)
Ninguna si el modelo está bien especificado y N no es ridículo
Los estimadores siguen siendo insesgados y consistentes
No afecta al valor esperado del estimador solo a su distribución finita
👉Gravedad:Baja
2️⃣ Intervalos de confianza
Con no normalidad moderada:
Los IC basados en normal/t pueden tener ser ligeramente incorrectos
Con colas pesadas o asimetría fuerte: erróneos, sobre todo en muestras pequeñas.
👉 Gravedad:
n grande → baja
n pequeño + colas pesadas → media
🧠¿Por qué seguimos usando α = 0,05 sin pensarlo?
No todos los estudios ni todas las decisiones tienen el mismo coste asociado a un falso positivo (error tipo I) o un falso negativo (error tipo II).
Cada estudio debe justificar su α según contexto, objetivos y consecuencias.👇🧵
👉Justificar α es parte del diseño del estudio, no del análisis
Diseñar estudios pensando explícitamente qué error se tolera más, permite tomar decisiones más racionales y eficientes, y mejorar la calidad y relevancia de la investigación.
Ejemplo👇
#stats #datascience #analytics
👉 El α debe definirse considerando:
1️⃣ El efecto mínimo relevante: ¿Cuál es la magnitud mínima de efecto que nos interesa detectar?
2️⃣ Costes relativos de los errores: ¿Qué error es más grave para el contexto de estudio?
3️⃣ Tamaño de la muestra y potencia
😖Error tipo I vs error tipo II ¿cuál duele más?
La mayoría asume que un error tipo I (falso positivo) es siempre más grave que un error tipo II (falso negativo). Suelen elegir α=0.05 y β=0.20. Sin embargo, esta jerarquía no siempre se sostiene y depende del contexto. ¿Cómo?👇🧵
1️⃣ Error tipo I (α)
Decir que hay un efecto cuando en realidad no lo hay (falso positivo).
Ejemplo:
- Aprobar un fármaco ineficaz o dañino.
- Implementar una intervención inútil.
Cuando elegir un menor α: Cuando los costes de actuar sobre un efecto falso son altos.
2️⃣ Error tipo II (β)
No detectar un efecto real (falso negativo).
Ejemplo
- No detectar un brote epidémico.
- Ignorar un efecto positivo de un nuevo tratamiento
Cuando elegir un menor β: Cuando no actuar tiene consecuencias graves o irreversibles.
🔹𝗢𝘂𝘁𝗹𝗶𝗲𝗿: valor raro en la variable respuesta
🔹𝗟𝗲𝘃𝗲𝗿𝗮𝗴𝗲: posición extrema en el espacio de los predictores
🔹𝗜𝗻𝗳𝗹𝘂𝗲𝗻𝗰𝗶𝗮: capacidad real de una observación para cambiar el modelo si desaparece
𝗦𝗼𝗹𝗼 𝗲𝗹 𝘁𝗲𝗿𝗰𝗲𝗿𝗼 𝗶𝗺𝗽𝗼𝗿𝘁𝗮 𝗱𝗲 𝘃𝗲𝗿𝗱𝗮𝗱
📌𝗘𝗹 𝗽-𝘃𝗮𝗹𝗼𝗿: qué es y cómo usarlo con sentido
Si 𝗻𝗼 𝗰𝗼𝗺𝗽𝗿𝗲𝗻𝗱𝗲𝘀 𝗾𝘂𝗲 𝗺𝗶𝗱𝗲 𝗻𝗶 𝗾𝘂𝗲 𝗱𝗲𝗰𝗶𝘀𝗶𝗼𝗻𝗲𝘀 𝗷𝘂𝘀𝘁𝗶𝗳𝗶𝗰𝗮, caerás en 𝗰𝗼𝗻𝗰𝗹𝘂𝘀𝗶𝗼𝗻𝗲𝘀 𝗶𝗻𝗳𝗹𝗮𝗱𝗮𝘀, 𝗱𝗲𝗰𝗶𝘀𝗶𝗼𝗻𝗲𝘀 𝗽𝗼𝗯𝗿𝗲𝘀 𝘆 𝗺𝗼𝗱𝗲𝗹𝗼𝘀 erróneos.
#datascience
El p-valor permite evaluar compatibilidad con un modelo, controlar error tipo I y detectar señales si los datos no encajan con H₀.No garantiza la verdad ni el tamaño del efecto, indica sorpresa bajo supuestos explícitos. Requiere juicio crítico, contexto, análisis de efecto, etc
💥 𝗘𝗹 𝗽-𝘃𝗮𝗹𝗼𝗿 𝗺𝗶𝗱𝗲 𝘀𝗼𝗿𝗽𝗿𝗲𝘀𝗮
Si p < alfa (e.g. 0.05) indica que, 𝗦𝗜 𝗘𝗟 𝗠𝗨𝗡𝗗𝗢 𝗙𝗨𝗡𝗖𝗜𝗢𝗡𝗔𝗥𝗔 𝗖𝗢𝗠𝗢 𝗔𝗦𝗨𝗠𝗘 𝗟𝗔 𝗛0 𝘆 𝗦𝗘 𝗖𝗨𝗠𝗣𝗟𝗜𝗘𝗥𝗔𝗡 𝗟𝗢𝗦 𝗦𝗨𝗣𝗨𝗘𝗦𝗧𝗢𝗦, el resultado observado sería 𝗽𝗼𝗰𝗼 𝗳𝗿𝗲𝗰𝘂𝗲𝗻𝘁𝗲.
🤔Hace poco, Daniel Lakens publicó una sátira brillante sobre lo que él llama el "Trastorno de Bayesianismo Dogmático".Aunque el tono es humorístico, el mensaje de fondo es vital para cualquiera que trabaje con datos: el tribalismo metodológico está frenando el avance científico.
Como profesionales, a menudo nos vemos atrapados en la guerra entre Frecuentistas y Bayesianos. Pero, ¿y si el camino hacia una ciencia más robusta no fuera elegir un bando, sino aprender a usar toda la caja de herramientas?
Aquí algunas reflexiones para superar esta división:
1️⃣Un carpintero no se define como "seguidor del martillo" en oposición al "culto del destornillador".El enfoque frecuentista y el bayesiano no son dogmas de fe. Cada uno responde a preguntas ligeramente diferentes. La robustez nace de saber qué herramienta aplicar a cada problema