Carlos Santana Profile picture
Dec 26, 2022 8 tweets 3 min read Read on X
Sé que va a haber un momento en 2023 que da igual lo que esté haciendo o donde esté, recibiré una notificación y se me helará la sangre. Será un momento de pararlo todo y empezar a currar en esto y algo que recordaré por tiempo...

👉 Habrá salido GPT-4

Os cuento cositas [1/n]
Desde que aprendimos el patrón GPT-2 -> GPT-3 -> ...
la versión 4 de la familia GPT ha sido el modelo más anticipado de la historia del Deep Learning, y ahora mismo el hype está bastante alto.

Se dicen cosas como estas 👇
Si algo ha despertado mi curiosidad por GPT-4 es leer este párrafo del blog de Gary Marcus, quien por normal general (y en este artículo no es la excepción) se sitúa en las antípodas de estos Enormes Modelos del Lenguaje. ¿Hay gente probándolo ya? 👀 Image
Si algo impresionó de GPT-3 fue cómo OpenAI logró escalar el tamaño de su modelo frente a sus predecesores. Respecto a GPT-2, la nueva versión aumentó su número de parámetros en >100 veces, hasta los 175 mil millones de parámetros. 🤯

¿Cuánto podría escalar GPT-4? ¿Qué pensáis? Image
Rumores hablan de esto: un modelo 500 VECES más grande que GPT-3.

...pues no lo creo

Si así fuera tendría miedo de tremenda bestia 😅 Pero creo que lo que vamos a ver es algo más "modesto" quizás un modelo 5 VECES mayor que llegue al BILLÓN de parámetros
Y es que este año DeepMind con Chinchilla demostró que no hacía falta escalar tanto a estos Enormes Modelos del Lenguaje. Que GPT-3 todavía tenía margen de mejora para ser entrenado más y con más datos sin necesidad de hacerlos MÁS GRANDES. Así que el tamaño no es tan importante. Image
Sea como sea, tiene pinta de que GPT-4 va a consolidarse como la primera GRAN herramienta de IA que masivamente usaremos para un gran rango de tareas. ChatGPT nos ha mostrado sus posibilidades.

Y si los rumores que llegan desde Silicon Valley son ciertos, lo que viene es grande.
A estas tecnologías se le llaman Enormes Modelos del Lenguaje (LLMs) y si queréis saber por qué es tan interesante hacer a estas IAs cada vez más grandes, en este vídeo se explica muy bien :)

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Carlos Santana

Carlos Santana Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @DotCSV

Dec 17
Sora es un desastre

La versión Turbo a la que nos han dado acceso no se sostiene por ningún lado, y la cosa hubiera quedado camuflada entre todos los anuncios de OpenAI si no fuera por el nuevo golpe sobre la mesa que ha dado Google con Veo 2

Aquí unas comparaciones - Sora 👇🧵
OpenAI Sora 🟠

prompt: A large iron ball falls on top of a cardboard box full of coins.
Read 23 tweets
Oct 10
Hey qué chulo! Llevo todo el año insistiendo en la importancia de benchmarks como el SWE-bench para evaluar a agentes autónomos en la realización de tareas de Ing. de Software y ahora OpenAI ha publicado un nuevo benchmark para tareas de Machine Learning! El MLE-bench ✨ Image
Esto es útil porque 1) seguimos dándole a la IA tareas más difíciles que podemos evaluar, y por tanto nos servirá para medir el progreso de los futuros sistemas y 2) porque que la IA haga labores de ML permitirá crear un feedback positivo de automejora 🔥
openai.com/index/mle-benc…
Si os preguntáis en qué consisten este tipo de tareas de ML, se tratan de competiciones de Kaggle de diferentes dificultades y categoría:Image
Image
Read 7 tweets
Oct 4
🔴 ¡NUEVO META GEN VIDEO!

Meta ha anunciado su nuevo generador de vídeo, con una calidad impresionante tanto en lo visual como en la consistencia y fluidez de los vídeos.

Atentos a los resultados, abro hilo! 🧵
A nivel de calidad visual se sitúa cerca de Sora, mostrando en varios ejemplos movimientos más fluidos y realistas.

Analizad los ejemplos de abajo. Locura!


Además de generar vídeo a partir de texto, muchos de los esfuerzos de las investigaciones de Meta en generación de imágenes y vídeo se centran en el control.

Aquí vemos cómo desde un vídeo a golpe de teclado se puede hacer modificaciones coherentes.
Read 7 tweets
Aug 13
🔴 MI CLON ARTIFICIAL CON FLUX

Llevo todo el día entrenando, configurando en local y mezclando Flux con otros Loras a la búsqueda del mejor combo para preparar un tutorial.

Mientras os comparto en este hilo los mejores resultados que voy obteniendo y os comparto impresiones 👇🧵Image
Como podéis ver, una vez entrenado el modelo los resultados son muy buenos a nivel de composición y realismo.

A mi gusto, le falta detalle y calidad, y es lo que estoy investigando. Posiblemente tenga que ver con los datos que he utilizado.

Aún así, WOW!
Image
Image
Una vez resuelto los problemas de calidad, tengo claro que este modelo será muy potente para crear fotografías sintéticas de uno mismo.
Image
Image
Read 12 tweets
Jul 12
🍓 NUEVAS FILTRACIONES de OPENAI

Un artículo de Reuters filtra información de una investigación interna llamado Strawberry, anteriormente conocido como Q* -chann channn!-

📰 El artículo la verdad que pone palabras a mucho de lo que se ha venido especulando en el último año:

→ Hablan de modelos "strawberries" para referirse a IAs con capacidad mejorada de razonamiento.

→ Ya se había filtrado anteriormente sobre Q* su capacidad de resolver problemas complejos de ciencia y matemáticas.

→ La técnica sería de post-entrenamiento. Es decir, una vez entrenas un LLM o LMM, puedes aplicarla para mejorar sus capacidades (como sucede con RLHF)

→ Apuntan a un paper de Stanford del que podría estar basado (Self-Taught Reasoner - STaR). Quizá de ahí la estrella de Q* y también el comienzo de STRawberry.

→ OpenAI busca con esta técnica lograr que las IAs puedan resolver long-horizon tasks. Es decir, tareas que recorrieran de planificación y ejecución de múltiples pasos y decisiones.

→ Investigan el usar estas capacidades de ejecución de tareas complejas conectándolo a un agente que ejecute en un ordenador instrucciones, y realizando trabajo de ingeniero de software y ML.

Wow. 😯Image
El artículo es este de aquí 👇

reuters.com/technology/art…
Bastante información, de la que mucho se había especulado, y que se aproxima a lo esperado. Aún así, una cosa es especular y otra tener (mediante filtraciones) la confirmación de que es eso.

Muy intrigado de las nuevas capacidades de la próxima generación de modelos!
Read 5 tweets
Jul 8
🔴 ¡RETRATOS VIVOS con IA!

Live Portrait es un nuevo modelo que permite en 1 minuto!!! dar vida a una imagen estática controlada por ti

Hasta la fecha, es el modelo que mejor resultados ofrece, con diferencia, y se convierte en otra herramienta IA más para generar vídeos!

🧵👇
Si queréis probarlo vosotros, en HuggingFace 🤗 tienen disponible la siguiente demo.

Grabad un vídeo en proporción 1:1, elegid una imagen y voilà :)
huggingface.co/spaces/KwaiVGI…
El modelo no sólo es rápido, sino que los resultados son buenos!

Con lo que ahora contamos con una nueva herramienta que facilitará el editar los vídeos de generación de IA, tanto para interpretar poses o para sincronización labial.

Read 9 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us!

:(