😜¡No seas un inocente del #DataScience !
⚠️Aunque el #MachineLearning puede ser una herramienta poderosa, siempre es importante evaluar y validar tus modelos antes de confiar demasiado en ellos.
😱¿Cómo evaluar y validar modelos de #ML? 👉(Hilo 🧵)
✅ Dividir los datos disponibles en dos (o más) conjuntos. Se entrena el modelo con un conjunto de entrenamiento y luego se mide su rendimiento en un conjunto de prueba. Así obtienes una estimación del rendimiento del modelo en datos que no ha visto antes #ML#IA#DataScience
✅ Utilizar métricas de evaluación apropiadas: Dependiendo del tipo de problema y modelo, existen diferentes métricas que se pueden utilizar para evaluar el rendimiento del modelo.
E.g. para clasificación la precisión o recall, para regresión el error cuadrático medio o RMSE #ML
✅ Validación cruzada: dividir los datos en varios conjuntos y entrenar y evaluar el modelo varias veces, cada vez utilizando un conjunto diferente como prueba y promediando los resultados. Da una estimación más robusta del rendimiento del modelo ya que utiliza más datos. #ML#IA
✅ Validación del rendimiento en el mundo real, una vez que se ha implementado. Esto puede incluir medir la precisión del modelo en tareas reales o monitorear el rendimiento del modelo a lo largo del tiempo para ver si mantiene su rendimiento #DataScience#MachineLearning#ML#IA
• • •
Missing some Tweet in this thread? You can try to
force a refresh
🎯 No todos los outliers son villanos. Algunos son los héroes que revelan lo que nadie más ve. 👀
👇🧵Te explico cómo distinguir entre errores, casos fuera de contexto y variación natural valiosa.
Eliminar outliers sin justificar puede:
❌ Distorsionar tus modelos
❌ Reducir la robustez de predicciones
❌ Hacerte perder información crítica
Por eso siempre recomiendo: PARA. REVISA Y CONSULTA PRIMERO.
Los valores atípicos no siempre son errores. A veces son:
✨ Variación natural que contiene información valiosa
🔍 Casos excepcionales que revelan patrones ocultos
💡 Las claves del hallazgo más importante
🔥 ¿Qué NO te enseñaron en tu curso de análisis de datos… y tuviste que aprender a golpes?
Nos enseñan métodos, fórmulas y (con suerte) sintaxis.
Pero en el mundo real, los datos llegan sucios, los plazos aprietan y nadie lee tus gráficos si no los entienden.
10 lecciones👇
📉 10 verdades del análisis de datos que no salen en el temario:
1️⃣ El 80% del trabajo es limpiar, ordenar y entender los datos.
Sí, lo has leído mil veces. Pero hasta que no lo vives, no lo crees.
🧼 Si amas la estadística, aprende también a amar el preprocesado.
#stats
2️⃣ Los datos nunca llegan como los necesitas. Nunca.
A veces el problema no es técnico, sino organizativo: fuentes desconectadas, procesos manuales, duplicados...
💡 El mejor analista no es el que espera datos perfectos, sino el que aprende a trabajar con datos imperfectos.
🚨 EL INFIERNO DE LAS FECHAS EN ANÁLISIS DE DATOS 🚨
Sí, lo has vivido. Todos lo hemos vivido.
Si alguna vez has intentado analizar fechas en Excel, sabes de lo que hablo:
🧨 Problemas típicos:
❌ Formatos inconsistentes: ¿DD/MM/AAAA o MM/DD/AAAA?
❌ Fechas como texto: Importas datos y... mágicamente son cadenas.
❌ Zonas horarias: UTC, GMT, hora local… todo mezclado.
❌ Restas y sumas absurdas: Días que no cuadran, meses que desaparecen…
💡 Pero hay una solución: R + lubridate = paz mental 🧘
✅ Limpiar fechas: ymd(), dmy(), mdy()
✅ Sumar días, meses o años: + days(5), + months(3)
✅ Detectar y corregir formatos mixtos: parse_date_time()
✅ Controlar husos horarios: with_tz() y force_tz()
📊 ¿Cómo sabes si tu modelo realmente funciona bien?
Muchos modelos se publican... pero pocos se diagnostican a fondo.
Si usas modelos de regresión en R, este recurso te va a ahorrar tiempo y sustos 🚨👇
📦 {performance} de #RStats te permite evaluar los supuestos clave de tus modelos de forma rápida, clara y eficiente.
check_collinearity() → ¿Predictores correlacionados?
check_normality() → ¿Residuos normales?
check_heteroscedasticity() → ¿Residuos con Varianza constante?
Y lo mejor:
👉 check_model() → Una sola función para un diagnóstico visual completo en segundos.
🚀 ¿Qué más puedes hacer con performance?
🔹 Obtener métricas como R², AIC, BIC, RMSE, ICC...
🔹 Diagnosticar modelos mixtos, con sobredispersión o inflación cero
💥¿Cómo seleccionar las variables adecuadas para tu modelo? 💥
El arte de construir modelos explicativos, implica comprender tu problema y reflejarlo en el modelo que construyes. Es un arte —y sí, también una ciencia— que requiere equilibrio y criterio.
#stats #datascience
🧠 Si tienes muchos predictores candidatos, crece el riesgo de perder el rumbo.
Un modelo sub-especificado olvida variables clave y sesga tus resultados
Un modelo sobre-especificado se enreda en redundancias y ruido
Debes encontrar el punto medio, ni muy sencillo ni muy complejo
👉 No confíes ciegamente en la selección automática: evalúa el objetivo de tu estudio, elige predictores con sentido, explora tus datos a fondo y aprende a interpretar las métricas que te indican qué modelo es el más adecuado. Con un ejemplo práctico con R maximaformacion.es/blog-dat/como-…
🧠 Lo fácil se vuelve difícil. Lo imposible se vuelve posible. Una charla de Hadley Wickham.
El viernes pasado, Wickham describió algo que está redefiniendo nuestra relación con la informática (y esto me provoca una mezcla de fascinación y alerta):👇🧵
#stats #AI #IA #GPT #LLM
👉 Los LLM invierten la lógica tradicional de las máquinas.
Durante décadas, para un ordenador:
✅ Fácil → cálculos exactos, conteos, aplicación de reglas fijas.
❌ Difícil → interpretar lenguaje natural, gestionar ambigüedad, crear algo nuevo.
#AItools #GPT5 #chatGPT #openAI
Hoy, con los LLM:
💎 Redactar un resumen adaptado a un público específico → fácil.
💎 Encontrar patrones en un texto ambiguo → natural.
💎 Traducir ideas vagas en código → habitual.
🤯 Pero contar las letras de una palabra o resolver una suma sencilla… puede salir mal.💥