¿Cómo es posible que #StableDiffusion haya sido desarrollado por un grupo medio desconocido que comparado con los gigantes de la IA (openai, google, meta, etc.) es minúsculo?
La sensación de "no es posible" recuerda a la irrupción del open-source (especialmente linux).
Hilo 👇🏻
Una de las máximas hasta ahora es que los modelos gigantescos solo pueden ser entrenados con muchísimos recursos que solo tienen los gigantes tecnológicos.
Esos gigantes controlaran esa tecnología clave y de ahi emanan intuiciones sobre regulación, centralización, etc.
Publicaron estudios para estudiar el camino más óptimos a la rentabilidad y mejores prestaciones de los modelos grandes. Tanto Meta publicó arxiv.org/pdf/2208.08489… y OpenAI arxiv.org/pdf/2001.08361…
Una de las conclusiones del artículo de Meta es que se mejora tanto con más datos como con más cómputo (no necesariamente con más parámetros); el artículo de OpenAI sigue esa línea (escalar en cómputo mejora prestaciones) y deja abiertas algunas preguntas al final.
Pero eso fue hace más de 2 años, hace unos meses Deepmind publica el artículo donde introducen Chinchilla. Chinchilla es lo de menos, lo relevante es que indican que los modelos de lenguaje actuales no están suficientemente entrenados: les sobra cómputo y les faltan datos (!!!).
Corrección: en los primeros tuit digo que el artículo de Meta es de 2020, el artículo e Meta es de 2022 y en la conclusión son taxativos: para sistemas de recomendación se acabó la fiesta de escalar solo con parámetros; o más datos o a esperar a nuevas arquitecturas.
¿Qué nuevas arquitecturas (o mejoras arquitecturales)?
A estas alturas todos los modelos de lenguaje se basan en Transformers arxiv.org/abs/1706.03762…. El Transformer usa internamente un tipo de atención llamado "Self-attention" con muchísimas ventajas pero tiene una desventaja:
Su complejidad (en memoria y cómputo) crece cuadráticamente con el tamaño de la entrada:
Frase de 4 palabras -> Complejidad 16.
Frase de 10 palabras -> Complejidad 100.
Frase de 100 palabras -> Complejidad 10000.
Por eso GPT3, etc. "pierden el hilo" con textos grandes.
Eliminar o mitigar estos problemas es foco activo de estudio: Performer, Reformer, Linformer, etc. son variantes del Transformer que prometen aproximar la atención con costes no cuadráticos; más recientemente arxiv.org/abs/2202.10447
Ningun mecanismo de estos se usa aún en producción; espero verlas pronto y creo que ocasionará NUEVAS prestaciones para los modelos entrenados con muchísimos recursos por un lado y por otro que podremos entrenar modelos de lenguaje con menos recursos.
Lo irónico (y contraintuitivo) para OpenAI es que la parte más costosa de entrenar modelos de generación de imágenes no es la parte de generación de imágenes (!) sino la parte del modelo de lenguaje, y...
Inevitable irnos a 1999 cuando a Microsoft no le interesaba en absoluto que las "aplicaciones web" fueran igual de buenas que las "aplicaciones nativas" (de Windows) sin embargo inevitablemente la propia innovación en su división (Outlook online) hizo que Internet Explorer 👇🏻
diera soporte a una función llamada XMLHttpRequest, que rápidamente incorporaron los navegadores competidores (Mozilla, etc.) y dió lugar a un paradigma que se terminó llamando AJAX web.archive.org/web/2015091007… y dió lugar a que Google pudiera sacar Google Maps, Google Suggest, etc.
El paralelismo es que en estas empresas donde hay innovación, competencia interna, personal muy cualificado etc. es prácticamente imposible "guardarse" los avances incluso aunque estratégicamente como empresa te interese.
Pasó con el Software 1.0 y pasará con el Software 2.0
• • •
Missing some Tweet in this thread? You can try to
force a refresh
Es posible que el Teorema de Bayes te pueda salvar la vida
(lo que voy a contar es estadística elemental pero reconozco que me sorprenden los números cada vez de los hago)
Sobre los tests de inmunidad y cómo has de interpretar los resultados 👇
En breve habrán tests de inmunidad. Aunque nos gustaría que los tests fueran perfectos; no lo son: un test te puede decir que eres inmune, y que en realidad no lo seas; y al revés: puedes ser inmune y el test te dice lo contrario.
En las fichas técnicas hay dos parámetros clave:
Sensibilidad: detectar inmunidad en sujetos inmunes. P(+| I), probabilidad de que siendo inmune, des positivo. Imagina que es 85%
Especificidad: detectar ausencia de la inmunidad en sujetos no inmunes. P(-| Î ), probabilidad de que sin ser inmune, des negativo. Imagina 99%
Privacidad vs. Efectividad, mi visión como ingeniero:
(spoiler: plantear en la fase de seguimiento de contactos soluciones que antepongan privacidad frente a efectividad me parece arriesgadísimo, yo no lo haría)
Explico por qué 👇🏻
En ingeniería estamos constantemente eligiendo entre compromisos, por ejemplo en software a un gestor de producto le sueles plantear medio en broma medio en serio:
Rápido
Fiable
Barato
Tienes que elegir 2 (te engañas a ti mismo si quieres las 3).
El propósito de este hilo es argumentar que existe un compromiso parecido entre:
PRIVACIDAD vs. EFECTIVIDAD
en soluciones de traceabilidad de contactos. Explico por qué:
Hasta ahora el ARTE parecía a salvo de la automatización o la inteligencia artificial. Pero van saliendo prototipos de redes neuronales que prometen hacer muchas cosas para las que antes hacía falta formación o talento artístico, hilo sobre 🎵música, 🖼cuadros y 🖌literatura. 👇🏻
🎵 En música tenemos ya prototipos que generan piezas que "no suenan mal" simplemente pulsando unas teclas. Dentro de poco podrás silbar una melodía vaga que tengas en la cabeza y pulsando la tecla JAZZ podrás sintetizar una pieza basada en esa melodía
🖼 En cuadros ahora haces un esbozo infantil y puedes generar una imagen como si estuvieras pintando un cuadro, y fácilmente aplicarle una capa de estilo artístico por encima
El desdén (sumado a ignorancia) del gobierno en España por el tema es una evidencia. El libro blanco de la IA olvidado en un cajón se va haciendo obsoleto cada día que pasa.
La velocidad cuenta: La estrategia en tecnología y menos la IA no es como la estrategia agraria o industrial: hay que ser rápidos y capaces de adaptarse con celeridad (pivotar).
Andrés habló como economista pero yo oí a un emprendedor: muchas veces víctima de regulaciones (no inteligentes)...
...que hacen que para startups con pocos recursos (como todas) tengamos menos posibilidades de innovar que otras entidades que:
- tienen menos motivos/interés en innovar si son ya líderes/oligopolios
- tienen recursos (abogados, etc.) para hacer frente a regulaciones complicadas
aquí va mi opinión: claro que en un mundo ideal me encantaría una planificación y regulación inteligente que fomentara la innovación (por cierto mientras hablamos: Francia: 1500m EUR en IA, Alemania 3000m EUR en IA, ni hablo de China o EEUU) pero en el mundo que conozco donde...