Andres Torrubia Profile picture
Aug 31 16 tweets 6 min read
¿Cómo es posible que #StableDiffusion haya sido desarrollado por un grupo medio desconocido que comparado con los gigantes de la IA (openai, google, meta, etc.) es minúsculo?

La sensación de "no es posible" recuerda a la irrupción del open-source (especialmente linux).

Hilo 👇🏻
Una de las máximas hasta ahora es que los modelos gigantescos solo pueden ser entrenados con muchísimos recursos que solo tienen los gigantes tecnológicos.

Esos gigantes controlaran esa tecnología clave y de ahi emanan intuiciones sobre regulación, centralización, etc.
Publicaron estudios para estudiar el camino más óptimos a la rentabilidad y mejores prestaciones de los modelos grandes. Tanto Meta publicó arxiv.org/pdf/2208.08489… y OpenAI arxiv.org/pdf/2001.08361…
Una de las conclusiones del artículo de Meta es que se mejora tanto con más datos como con más cómputo (no necesariamente con más parámetros); el artículo de OpenAI sigue esa línea (escalar en cómputo mejora prestaciones) y deja abiertas algunas preguntas al final.
Pero eso fue hace más de 2 años, hace unos meses Deepmind publica el artículo donde introducen Chinchilla. Chinchilla es lo de menos, lo relevante es que indican que los modelos de lenguaje actuales no están suficientemente entrenados: les sobra cómputo y les faltan datos (!!!).
Corrección: en los primeros tuit digo que el artículo de Meta es de 2020, el artículo e Meta es de 2022 y en la conclusión son taxativos: para sistemas de recomendación se acabó la fiesta de escalar solo con parámetros; o más datos o a esperar a nuevas arquitecturas.
¿Qué nuevas arquitecturas (o mejoras arquitecturales)?

A estas alturas todos los modelos de lenguaje se basan en Transformers arxiv.org/abs/1706.03762…. El Transformer usa internamente un tipo de atención llamado "Self-attention" con muchísimas ventajas pero tiene una desventaja:
Su complejidad (en memoria y cómputo) crece cuadráticamente con el tamaño de la entrada:

Frase de 4 palabras -> Complejidad 16.
Frase de 10 palabras -> Complejidad 100.
Frase de 100 palabras -> Complejidad 10000.

Por eso GPT3, etc. "pierden el hilo" con textos grandes.
Eliminar o mitigar estos problemas es foco activo de estudio: Performer, Reformer, Linformer, etc. son variantes del Transformer que prometen aproximar la atención con costes no cuadráticos; más recientemente arxiv.org/abs/2202.10447
Ningun mecanismo de estos se usa aún en producción; espero verlas pronto y creo que ocasionará NUEVAS prestaciones para los modelos entrenados con muchísimos recursos por un lado y por otro que podremos entrenar modelos de lenguaje con menos recursos.

Pero ¿Y #StableDiffusion?
Lo irónico (y contraintuitivo) para OpenAI es que la parte más costosa de entrenar modelos de generación de imágenes no es la parte de generación de imágenes (!) sino la parte del modelo de lenguaje, y...

¿pero qué modelo de lenguaje usa #StableDiffusion?
#stableDifusion usa CLIP ViT-L/14 liberado por openai....

github.com/openai/CLIP/is…
Inevitable irnos a 1999 cuando a Microsoft no le interesaba en absoluto que las "aplicaciones web" fueran igual de buenas que las "aplicaciones nativas" (de Windows) sin embargo inevitablemente la propia innovación en su división (Outlook online) hizo que Internet Explorer 👇🏻
diera soporte a una función llamada XMLHttpRequest, que rápidamente incorporaron los navegadores competidores (Mozilla, etc.) y dió lugar a un paradigma que se terminó llamando AJAX web.archive.org/web/2015091007… y dió lugar a que Google pudiera sacar Google Maps, Google Suggest, etc.
El paralelismo es que en estas empresas donde hay innovación, competencia interna, personal muy cualificado etc. es prácticamente imposible "guardarse" los avances incluso aunque estratégicamente como empresa te interese.

Pasó con el Software 1.0 y pasará con el Software 2.0

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Andres Torrubia

Andres Torrubia Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @antor

Oct 16, 2020
🎙️Refresquen podcasts🎙️SOFTWARE 2.0 con @jeremyphoward

Versión con traducción al castellano:
anchor.fm/sw20/episodes/…

Versión en inglés:
anchor.fm/sw20/episodes/…

¡Como siempre en RSS, iTunes, Spotify, iVoox, etc!
Aquí van los enlaces:

Curso de aprendizaje profundo para programadores (deep learning for coders):

course.fast.ai
Libro que acompaña al curso: amazon.es/Deep-Learning-…
Read 7 tweets
Apr 11, 2020
Es posible que el Teorema de Bayes te pueda salvar la vida

(lo que voy a contar es estadística elemental pero reconozco que me sorprenden los números cada vez de los hago)

Sobre los tests de inmunidad y cómo has de interpretar los resultados 👇
En breve habrán tests de inmunidad. Aunque nos gustaría que los tests fueran perfectos; no lo son: un test te puede decir que eres inmune, y que en realidad no lo seas; y al revés: puedes ser inmune y el test te dice lo contrario.

En las fichas técnicas hay dos parámetros clave:
Sensibilidad: detectar inmunidad en sujetos inmunes. P(+| I), probabilidad de que siendo inmune, des positivo. Imagina que es 85%

Especificidad: detectar ausencia de la inmunidad en sujetos no inmunes. P(-| Î ), probabilidad de que sin ser inmune, des negativo. Imagina 99%
Read 8 tweets
Apr 6, 2020
Privacidad vs. Efectividad, mi visión como ingeniero:

(spoiler: plantear en la fase de seguimiento de contactos soluciones que antepongan privacidad frente a efectividad me parece arriesgadísimo, yo no lo haría)

Explico por qué 👇🏻
En ingeniería estamos constantemente eligiendo entre compromisos, por ejemplo en software a un gestor de producto le sueles plantear medio en broma medio en serio:

Rápido
Fiable
Barato

Tienes que elegir 2 (te engañas a ti mismo si quieres las 3).
El propósito de este hilo es argumentar que existe un compromiso parecido entre:

PRIVACIDAD vs. EFECTIVIDAD

en soluciones de traceabilidad de contactos. Explico por qué:
Read 20 tweets
Mar 19, 2019
Hasta ahora el ARTE parecía a salvo de la automatización o la inteligencia artificial. Pero van saliendo prototipos de redes neuronales que prometen hacer muchas cosas para las que antes hacía falta formación o talento artístico, hilo sobre 🎵música, 🖼cuadros y 🖌literatura. 👇🏻
🎵 En música tenemos ya prototipos que generan piezas que "no suenan mal" simplemente pulsando unas teclas. Dentro de poco podrás silbar una melodía vaga que tengas en la cabeza y pulsando la tecla JAZZ podrás sintetizar una pieza basada en esa melodía
🖼 En cuadros ahora haces un esbozo infantil y puedes generar una imagen como si estuvieras pintando un cuadro, y fácilmente aplicarle una capa de estilo artístico por encima
Read 8 tweets
Dec 17, 2018
Demoledora visión del papel de Europa en la IA de @kaifulee

Objetivamente EEUU y China aceleran crecientemente mientras nosotros aún estamos hablando de metafísica sin empresas comparables o estrategia.
El desdén (sumado a ignorancia) del gobierno en España por el tema es una evidencia. El libro blanco de la IA olvidado en un cajón se va haciendo obsoleto cada día que pasa.
La velocidad cuenta: La estrategia en tecnología y menos la IA no es como la estrategia agraria o industrial: hay que ser rápidos y capaces de adaptarse con celeridad (pivotar).
Read 12 tweets
Nov 25, 2018
Me encantó el debate entre @nuriaoliver y @andres_pedreno moderado por @garcia_abadillo discrepando sobre el papel de la regulación en la innovación.

Andrés habló como economista pero yo oí a un emprendedor: muchas veces víctima de regulaciones (no inteligentes)...
...que hacen que para startups con pocos recursos (como todas) tengamos menos posibilidades de innovar que otras entidades que:
- tienen menos motivos/interés en innovar si son ya líderes/oligopolios
- tienen recursos (abogados, etc.) para hacer frente a regulaciones complicadas
aquí va mi opinión: claro que en un mundo ideal me encantaría una planificación y regulación inteligente que fomentara la innovación (por cierto mientras hablamos: Francia: 1500m EUR en IA, Alemania 3000m EUR en IA, ni hablo de China o EEUU) pero en el mundo que conozco donde...
Read 6 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us on Twitter!

:(