Sé que va a haber un momento en 2023 que da igual lo que esté haciendo o donde esté, recibiré una notificación y se me helará la sangre. Será un momento de pararlo todo y empezar a currar en esto y algo que recordaré por tiempo...
👉 Habrá salido GPT-4
Os cuento cositas [1/n]
Desde que aprendimos el patrón GPT-2 -> GPT-3 -> ...
la versión 4 de la familia GPT ha sido el modelo más anticipado de la historia del Deep Learning, y ahora mismo el hype está bastante alto.
Si algo ha despertado mi curiosidad por GPT-4 es leer este párrafo del blog de Gary Marcus, quien por normal general (y en este artículo no es la excepción) se sitúa en las antípodas de estos Enormes Modelos del Lenguaje. ¿Hay gente probándolo ya? 👀
Si algo impresionó de GPT-3 fue cómo OpenAI logró escalar el tamaño de su modelo frente a sus predecesores. Respecto a GPT-2, la nueva versión aumentó su número de parámetros en >100 veces, hasta los 175 mil millones de parámetros. 🤯
¿Cuánto podría escalar GPT-4? ¿Qué pensáis?
Rumores hablan de esto: un modelo 500 VECES más grande que GPT-3.
...pues no lo creo
Si así fuera tendría miedo de tremenda bestia 😅 Pero creo que lo que vamos a ver es algo más "modesto" quizás un modelo 5 VECES mayor que llegue al BILLÓN de parámetros
Y es que este año DeepMind con Chinchilla demostró que no hacía falta escalar tanto a estos Enormes Modelos del Lenguaje. Que GPT-3 todavía tenía margen de mejora para ser entrenado más y con más datos sin necesidad de hacerlos MÁS GRANDES. Así que el tamaño no es tan importante.
Sea como sea, tiene pinta de que GPT-4 va a consolidarse como la primera GRAN herramienta de IA que masivamente usaremos para un gran rango de tareas. ChatGPT nos ha mostrado sus posibilidades.
Y si los rumores que llegan desde Silicon Valley son ciertos, lo que viene es grande.
A estas tecnologías se le llaman Enormes Modelos del Lenguaje (LLMs) y si queréis saber por qué es tan interesante hacer a estas IAs cada vez más grandes, en este vídeo se explica muy bien :)
• • •
Missing some Tweet in this thread? You can try to
force a refresh
Tras muchas horas sin internet, aquí unas primeras impresiones del nuevo sistema de programación autónoma presentada por OpenAI ayer: CODEX
Un repaso rápido 👇🧵
Para los despistados, Codex es la nueva herramienta agéntica de OpenAI, en este caso orientada a labores de programación: te conectas a tu base de código, puedes hacerle preguntas a la IA, pedirle que te arregle bugs o que implemente nuevas funcionalidades.
Lo interesante de este sistema es que trabajará en lo que le asignes en un rango de tiempo que puede ir de 1 a 30 minutos, trabajando en segundo plano, mientras tú te puedes quedar depurando qué hace o tomándote un café.
La plataforma tiene potencial porque ahora mismo no pretende ser un producto final (de hecho está marcado como research preview) sino un punto de partida para ir automatizando cada vez más las labores de programación y SWE.
Según los modelos sigan haciéndose más rápidos, más capaces y baratos, este tipo de plataformas irán aportando más y más valor.
Además, seguramente Codex se nutra bastante del talento tras la adquisición reciente de Windsurf.
Nada huele más a ciclo virtuoso camino a la AGI que ver a sistemas de IAs automatizando el descubrimiento de nuevos algoritmos y optimizando campos como la informática y las matemáticas.
¡Y eso hace AlphaEvolve! Os cuento 👇🧵
Este trabajo sigue la línea de investigaciones previas como AlphaCode o FunSearch, combinando las capacidades más "creativas" de los LLMs para la búsqueda de hipótesis e ideas, con evaluadores automáticos que vayan comprobando las soluciones candidatas.
El proceso a muy alto nivel sería el de tener a una IA que propone ideas candidatas, muchas, para lo que modelos ágiles como Gemini Flash van bien y que luego son depuradas con la IA más lista, Gemini Pro.
De esas soluciones, se evalúan con los verificadores y de esas puntuaciones se puede guiar a los LLMs para "evolucionar" sus ideas a incluso mejores soluciones.
Le das al play, y epa, a programar!
¿Resultados? Pues Google ha conseguido optimizar varios puntos claves de su infraestructura. Algo que a la escala a la que opera Google pues supone grandísimos ahorros.
Un año más aquí os traigo 24 ideas de lo que creo podría pasar en el mundo de la Inteligencia Artificial durante este año.
24 predicciones que vosotros también podéis votar como probable usando el botón 💖
En 12 meses verificamos 😄👇
#1🔮 HEY… ¡TU CARA ME SUENA!
Al acabar el año será sencillo crear un avatar hiperrealista de tu persona con el que, emulando tu voz, apariencia y forma de hablar, podrás tener una conversación natural.
Aunque será percibido como algo extravagante algunos negocios empezarán a utilizar en espacios públicos como alternativa a servicios de cara al cliente.
#2🔮 EXPLOTA LA CREACIÓN AUDIOVISUAL IA
Internet se inundará de vídeos IA.
A nivel profesional, veremos al menos una web serie de éxito producida íntegramente con IA.
En el sector del cine y series será frecuente ver usos de la IA para la edición o generación de parte del metraje.
En un año, mínimo 1 de cada 4 anuncios de televisión emitidos usarán IA generativa para su producción.
La producción de contenido en 2D/3D/animación se abaratará, reduciendo drásticamente la brecha entre cine indie y producciones mayores.
La versión Turbo a la que nos han dado acceso no se sostiene por ningún lado, y la cosa hubiera quedado camuflada entre todos los anuncios de OpenAI si no fuera por el nuevo golpe sobre la mesa que ha dado Google con Veo 2
Hey qué chulo! Llevo todo el año insistiendo en la importancia de benchmarks como el SWE-bench para evaluar a agentes autónomos en la realización de tareas de Ing. de Software y ahora OpenAI ha publicado un nuevo benchmark para tareas de Machine Learning! El MLE-bench ✨
Esto es útil porque 1) seguimos dándole a la IA tareas más difíciles que podemos evaluar, y por tanto nos servirá para medir el progreso de los futuros sistemas y 2) porque que la IA haga labores de ML permitirá crear un feedback positivo de automejora 🔥 openai.com/index/mle-benc…
Si os preguntáis en qué consisten este tipo de tareas de ML, se tratan de competiciones de Kaggle de diferentes dificultades y categoría:
A nivel de calidad visual se sitúa cerca de Sora, mostrando en varios ejemplos movimientos más fluidos y realistas.
Analizad los ejemplos de abajo. Locura!
Además de generar vídeo a partir de texto, muchos de los esfuerzos de las investigaciones de Meta en generación de imágenes y vídeo se centran en el control.
Aquí vemos cómo desde un vídeo a golpe de teclado se puede hacer modificaciones coherentes.