1/ Recorrido por algunos de los papers que han marcado hitos en el desarrollo de la IA. Desde Alan Turing en 1950 hasta OpenAI ahora.
Abro hilo👇
2/ Computing Machinery and Intelligence. 1950.
A partir de la pregunta “¿pueden pensar las máquinas?, Alan Turing, pionero de la informática, introduce el famoso Test de Turing para evaluar la inteligencia de una máquina. academic.oup.com/mind/article/L…
4/ The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. 1958. Frank Rosenblatt.
Fundamental para introducir el concepto del perceptrón y uno de los trabajos pioneros en el campo de las redes neuronales. direct.mit.edu/books/edited-v…
5/ Perceptrons: An Introduction to Computational Geometry. 1969.
Este libro del pionero Marvin Minsky muestra que los perceptrones simples no pueden resolver problemas como un XOR, iniciando el primer invierno de la IA.
6/ Learning Representations by Back-propagating Errors. 1986.
ArtĂculo seminal para el Deep Learning de Geoffrey Hinton, @geoffreyhinton. Se presenta el algoritmo de backpropagation, clave en el entrenamiento de RRNN profundas. semanticscholar.org/paper/Learning…
7/ Q-Learning. 1989.
Se presenta el algoritmo Q-learning, que se ha convertido en uno de los enfoques más influyentes en Reinforcement Learning. link.springer.com/article/10.100…
8/ Gradient-based learning applied to document recognition. 1998.
Yann LeCun, @ylecun, y Yoshua Bengio participan en este paper pionero en redes convolucionales y computer visión. Aplicación de un OCR para la lectura de cheques. researchgate.net/publication/29…
12/ Human-level control through deep reinforcement learning. 2015. DeepMind.
Demis Hassabis, @demishassabis, presenta el algoritmo DQN, que combina RRNN con Q-learning (Reinforcement Learning). Alcanza el nivel humano en varios juegos de la consola Atari. semanticscholar.org/paper/Human-le…
13/ Mastering the game of Go without human knowledge. 2017. DeepMind.
De nuevo DeepMind, con AlphaZero, da un salto en el uso de Reinforcement Learning, aplicándolo para resolver juegos de tablero. semanticscholar.org/paper/Masterin…
14/ Attention is all you need. 2017. Google.
Introduce la arquitectura Transformer, fundamental para los LLM actuales. arxiv.org/abs/1706.03762
15/ BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. 2018. Google.
Presenta BERT, el primer LLM basado en transformers para el procesamiento del lenguaje natural. arxiv.org/abs/1810.04805
16/Language Models are Unsupervised Multitask Learners. 2019. OpenAI.
Introduce GPT-2, un LLM que marca el estado del arte en el que estamos ahora al aumentar el volumen de datos utilizado. paperswithcode.com/paper/language…
17/ Obviamente hay muchos papers, pero si tienes uno en mente que te parece especialmente relevante compártelo, por favor.
//FIN
• • •
Missing some Tweet in this thread? You can try to
force a refresh
1/ Creo que la forma del software está a punto de cambiar de forma radical, más allá del aumento de productividad cuando desarrollamos.
Los agentes autĂłnomos (agentic AI) pueden ser el inicio de un nuevo paradigma en el software.
3/ Al principio no habĂa software. Las computadoras se recableaban fĂsicamente.
Luego se separó la máquina de la función que desempeñaba con las tarjetas perforadas. ¿protosoftware?
2/ Parto de la premisa de que los modelos de lenguaje (LLM) entienden lo que dicen. No entienden como nosotros, pero a efectos prácticos necesariamente entienden el lenguaje para hacer todo de lo que son capaces. Insisto, aunque sea de manera diferente.
3/ Para conseguir esa comprensiĂłn parten de una representaciĂłn semántica del lenguaje que de alguna manera podrĂamos decir que reconstruye un modelo conceptual del mundo.
1/ @geoffreyhinton afirma que la inteligencia artificial (a la que se refiere como “digital”) es mejor que la biológica y que los LLM sà entienden lo que dicen.
Abro hilo 👇
2/ El tema es provocativo, pero me parece muy relevante analizar los argumentos de alguien como Hinton, premio Turing y pionero de las redes neuronales. Estuvo muchos años apostando por una tecnologĂa en la que nadie creĂa.
3/ Primera afirmaciĂłn: Probablemente la inteligencia digital sea mejor que la biolĂłgica.
1/ Hace unos meses, en una entrevista con @peterdiamandis, @emostaque, CEO de @stabilityai decĂa que "no habrá programadores en 5 años".
Abro hilo 👇
2/ Con el lanzamiento de GPT-4 @openai publicaba un estudio sobre el impacto potencial de los LLM en el trabajo. Planteabam que impatarán cuando sean necesarias habilidades de lenguaje y de programación. arxiv.org/abs/2303.10130
3/ Esto es asĂ porque estos modelos entienden los lenguajes de programaciĂłn y pueden generar cĂłdigo. Fundamentalmente ocurre en el verano de 2020 con la publicaciĂłn de GPT3. Y fue una sorpresa grande. Bastante inesperado.
1/ Una de las palabras que se han popularizado durante el año pasado es “prompt”. PodrĂamos decir que es el arte de susurrar a la Inteligencia Artificial.
El caso es que el prompting tiene más enjundia de la que parece a primera vista.
Abro hilo 👇
2/ Lo primero es que las instrucciones que se le dan al modelo tienen que ser claras y precisas. Cuanta más información relevante se le de mejor.
En esta contextualizaciĂłn es habitual indicarle que rol tiene que asumir o a que audiencia va dirigido.
2/ Prompting es la más básica. Cuando escribimos algo (un prompt) en ChatGPT estamos haciendo Prompting.
Las instrucciones que damos al modelo van a determinar la calidad de la respuesta. Es mucho más potente de lo que inicialmente puede parecer.
3/ Desde usar delimitadores, estructurar el prompt con un contexto, una instrucción clara y una especificación del formato, hasta otros más anecdóticos como añadir un “te doy una propina si lo haces bien”. arxiv.org/abs/2312.16171