🚫No seleccionar la prueba de hipótesis o el modelo de regresión correcto para tu objetivo🎃
¿Cuáles son las hipótesis? ¿Cómo son las muestras? ¿Qué tipo de prueba/modelo elegir? ¿Una cola o dos colas? ¿Qué hacer si mis datos no cumplen los supuestos? BOOO!! 👻
🚫No distinguir la significación estadística de la significación práctica🤦🏻♀️p-valor nos dice la dirección y tamaño del efecto la magnitud
Que exista una diferencia no significa que sea grande
Muestras muy grandes detectan diferencias muy pequeñas. Big Data da MIEDO! #HorrorStats
🚫Decir "se comprueba la hipótesis nula H0" o "H0 es cierta"
👉Así como la falta de evidencia no demuestra que el acusado es inocente, un resultado no estadísticamente significativo (e.g. p>.05) no demuestra que H0 sea verdadera. Solo “no hay suficiente evidencia"💀 #HorrorStats
🚫Decir "el p-valor es la probabilidad de que H0 sea cierta"
😱Las hipótesis son o no son. p-valor mide la fuerza de la evidencia contra H0. A menor p-valor, mayor evidencia contra H0 a largo plazo🧙
🚫No informar el p-valor exacto ni los resultados completos de la prueba de hipótesis.
😱p-valor depende de:
📌tamaño de efecto (ES), ES grandes son más fáciles de detectar.
📌tamaño de muestra (N). muestras grandes dan pruebas más sensibles
📌Diseño de estudio...
🎯 ¿Quieres que tus clusters realmente representen la estructura de tus datos? Entonces no te olvides de escalar.
💡 Escalar bien tus datos puede cambiar radicalmente los resultados que obtienes. Aquí te explico por qué y cómo hacerlo mejor. 👇
#MachineLearning #DataScience
🧠 En el análisis de datos, hay decisiones que parecen “detalles técnicos” pero que cambian radicalmente los resultados. El escalado de características (feature scaling) es una de ellas. ¿Por qué es tan crucial cuando usamos algoritmos como el k-means?
#clustering #ML #KMeans
🔍 k-means agrupa observaciones minimizando distancias (normalmente euclidianas) a los centroides. ¿El problema? Si tus variables están en unidades diferentes (e.g. edad e ingresos), las de mayor rango dominan el cálculo de distancias. Resultado: clústeres sesgados.💥
📊 Errores comunes al analizar e interpretar datos (y cómo evitarlos)
En plena era de los datos, cometer errores al analizarlos puede salir muy caro.
👇🧵 Aquí tienes un repaso de los errores más comunes.
#stats #datascience #analytics #rstats
🔍 1. No tener claro el objetivo del estudio
¿Estás describiendo, explicando o prediciendo? No es lo mismo.
Ese objetivo define qué datos necesitas, cómo analizarlos y cómo interpretar los resultados.
📏 2. Usar muestras demasiado pequeñas
Muestras pequeñas pueden llevar a sobreajuste, baja precisión y falta de potencia.
Las reglas del pulgar no sirven. Calcula el tamaño muestral con fundamento.
🚨 ¿Todavía haces análisis complejos en hojas de cálculo? ¡🚨
Las hojas de cálculo son omnipresentes, versátiles y familiares, pero cuando se trata de análisis de datos complejos o decisiones críticas… se transforman en una bomba de relojería.💣👇🧵
#rstats #excel #spss #stats
💥 La cruda realidad: los errores son la norma, no la excepción
Estudios sistemáticos han demostrado que los errores en hojas de cálculo son tan comunes como invisibles. No hablamos solo de equivocarse al teclear un número. Hablamos de Errores lógicos, Fórmulas, Cambios, etc.!
Según Panko (2008), en grandes hojas de cálculo, no se trata de si hay errores, sino de cuántos hay. 💥
Y esto no es anecdótico:
🔍 ¿Qué es la ordenación restringida?
👀 Es una técnica de análisis multivariante que sirve para explorar cómo se relacionan múltiples variables de respuesta (e.g. abundancia de especies) con múltiples variables explicativas (e.g. condiciones ambientales).
Te cuento más 👇🧵
💡A diferencia de la ordenación no restringida (e.g. PCA/CA), aquí forzamos la representación de los datos a que esté condicionada por variables externas. Buscamos los ejes que mejor explican la variación, pero solo dentro del espacio definido por las variables explicativas.
🌱 Ejemplo ecológico clásico:
Imagina dos matrices:
- Matriz Y: presencia o abundancia de especies en diferentes sitios.
- Matriz X: variables ambientales medidas en esos mismos sitios (pH, altitud, nutrientes, temperatura…).
📊 ¿Cómo evalúas y diagnosticas tu modelo de regresión?
💡 Comprender cómo se comportan los residuos es clave para interpretar si el modelo se ajusta correctamente a los datos.👇🧵
Y aquí es donde entra el paquete 📦 {performance} de #RStats, que te permite realizar un diagnóstico completo, visual y eficiente en cuestión de segundos. 👇
🧪 Diagnóstico gráfico: lo que todo analista debería revisar:
🔍1️⃣ Residuos vs. valores ajustados
✔️ Ideal: dispersión aleatoria alrededor de 0 → indica linealidad y homocedasticidad
❌ Problemas:
Curvas = fallo en la linealidad
Forma de embudo = heterocedasticidad
🛠Solución: agrega términos no lineales o usa modelos con varianza flexible
🎯 ¿CUÁNTO ES SUFICIENTE? El tamaño de muestra ideal explicado fácil y rápido 🚀
Cuando diseñas un experimento o estudio, surge la GRAN PREGUNTA: ¿Cuántos sujetos o muestras necesito? 🤔
🔍En este post veremos por qué y cómo calcular el tamaño de muestra👇🧵
#DataScience #stats
📉 Demasiado pequeño: Podrías pasar por alto un efecto importante. Resultados poco confiables o "ruido".
💸 Demasiado grande: Desperdicias recursos y esfuerzo
🏆 El tamaño justo (como Ricitos de oro): Para detectar efectos relevantes sin malgastar recursos.
✨ La RESPUESTA está en el CÁLCULO del tamaño de muestra.
Objetivo: Tener suficientes muestras para detectar un efecto real sin exagerar con muestras innecesarias.
🔑 Factores clave en el cálculo del tamaño de muestra: