Abraham Díaz Profile picture
Research/Machine Learning Engineer
Feb 16 16 tweets 11 min read
1/15 Un world model entrenado con datos de un estado puede simular cómo evolucionan sus ciudadanos — y optimizar empujones invisibles para moverlos donde quiera.
Hay dos formas de usar ML sobre personas. Un modelo discriminativo clasifica: dado lo que observo, ¿esta persona es X o Y? Es un crítico que evalúa.
Un world model hace algo cualitativamente distinto: dado el estado actual de esta persona y una acción que yo tomo, simula cómo evoluciona. No genera datos de la
nada como DALL-E genera imágenes — simula trayectorias futuras condicionadas a intervenciones. Es la diferencia entre un médico que diagnostica "tienes gripe" y un simulador que calcula "si te doy este tratamiento hoy, en 72 horas tu carga viral estará aquí". Lo que un estado necesita no es un clasificador. Es un
simulador: p(estado_futuro | estado_actual, acción). Un world model. 2/15 El comportamiento humano, como las imágenes naturales, vive en un manifold de dimensión mucho menor que el espacio bruto de datos.

Una imagen de 1024×1024 píxeles tiene millones de dimensiones teóricas. Pero las imágenes naturales — caras, paisajes, objetos — ocupan una fracción
diminuta de ese espacio. Viven en un manifold de baja dimensión. Por eso un modelo puede aprender a generar caras realistas sin explorar todo el espacio posible: aprende la geometría del manifold.

Con el comportamiento humano pasa algo análogo. En teoría, las combinaciones posibles de decisiones, movimientos, compras, clics y respuestas de una persona son astronómicas. En la práctica, la gente se mueve sobre patrones. Hay regularidades. Hay un manifold conductual. La diferencia clave con las imágenes: este manifold es no-estacionario (cambia con el tiempo) y reactivo (se deforma cuando actúas sobre él). Pero existe, y un modelo puede aprenderlo.