1/ Recorrido por algunos de los papers que han marcado hitos en el desarrollo de la IA. Desde Alan Turing en 1950 hasta OpenAI ahora.
Abro hilo👇
2/ Computing Machinery and Intelligence. 1950.
A partir de la pregunta “¿pueden pensar las máquinas?, Alan Turing, pionero de la informática, introduce el famoso Test de Turing para evaluar la inteligencia de una máquina. academic.oup.com/mind/article/L…
3/ Dartmouth Summer Research Project. 1955.
McCarthy, Minsky, Shannon y Rochester lanzan esta convocatoria para la conferencia de Darmouth donde se acuña el término “Inteligencia Artificial”. jmc.stanford.edu/articles/dartm…
4/ The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. 1958. Frank Rosenblatt.
Fundamental para introducir el concepto del perceptrón y uno de los trabajos pioneros en el campo de las redes neuronales. direct.mit.edu/books/edited-v…
5/ Perceptrons: An Introduction to Computational Geometry. 1969.
Este libro del pionero Marvin Minsky muestra que los perceptrones simples no pueden resolver problemas como un XOR, iniciando el primer invierno de la IA.
6/ Learning Representations by Back-propagating Errors. 1986.
Artículo seminal para el Deep Learning de Geoffrey Hinton, @geoffreyhinton. Se presenta el algoritmo de backpropagation, clave en el entrenamiento de RRNN profundas. semanticscholar.org/paper/Learning…
7/ Q-Learning. 1989.
Se presenta el algoritmo Q-learning, que se ha convertido en uno de los enfoques más influyentes en Reinforcement Learning. link.springer.com/article/10.100…
8/ Gradient-based learning applied to document recognition. 1998.
Yann LeCun, @ylecun, y Yoshua Bengio participan en este paper pionero en redes convolucionales y computer visión. Aplicación de un OCR para la lectura de cheques. researchgate.net/publication/29…
10/ ImageNet Classification with Deep Convolutional Neural Networks. 2012.
AlexNet impulsa el interés en las RRNN después de muchos años de ostracismo y da un salto en el ámbito de Computer Vision. Aparece Ilya Sutskever, @ilyasut, junto a Hinton.
11/ Sequence to Sequence Learning with Neural Networks. 2014.
Uso de RRNN para modelado de secuencias aplicado a una traducción automática del inglés al francés. De nuevo Sutskever junto a Oriol Vinyals, @OriolVinyalsML. arxiv.org/abs/1409.3215
12/ Human-level control through deep reinforcement learning. 2015. DeepMind.
Demis Hassabis, @demishassabis, presenta el algoritmo DQN, que combina RRNN con Q-learning (Reinforcement Learning). Alcanza el nivel humano en varios juegos de la consola Atari. semanticscholar.org/paper/Human-le…
13/ Mastering the game of Go without human knowledge. 2017. DeepMind.
De nuevo DeepMind, con AlphaZero, da un salto en el uso de Reinforcement Learning, aplicándolo para resolver juegos de tablero. semanticscholar.org/paper/Masterin…
14/ Attention is all you need. 2017. Google.
Introduce la arquitectura Transformer, fundamental para los LLM actuales. arxiv.org/abs/1706.03762
15/ BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. 2018. Google.
Presenta BERT, el primer LLM basado en transformers para el procesamiento del lenguaje natural. arxiv.org/abs/1810.04805
16/Language Models are Unsupervised Multitask Learners. 2019. OpenAI.
Introduce GPT-2, un LLM que marca el estado del arte en el que estamos ahora al aumentar el volumen de datos utilizado. paperswithcode.com/paper/language…
17/ Obviamente hay muchos papers, pero si tienes uno en mente que te parece especialmente relevante compártelo, por favor.
//FIN
• • •
Missing some Tweet in this thread? You can try to
force a refresh
1/ Hay mucha alarma con riesgos generados por la IA, pero hoy ya hay problemas que son amplificados por la IA.
Polarización, noticias falsas, suplantación, privacidad, discriminación y vigilancia.
Vamos uno a uno. Abro hilo 👇
2/ Hay dos grandes amenazas que generan preocupación alrededor de la Inteligencia Artificial.
Una es el riesgo existencial que traté la semana pasada y que, siendo el de mayor impacto (uno definitivo, vaya), es especulativo.
3/ La otra es la destrucción de puestos de trabajo que provocará la cuarta revolución industrial en la que estamos en ciernes. Lo traté hace unos años y actualizaré en otro momento.
A veces se encuentra joyas inesperadas.
Con 67 años, @ProfFeynman daba una clase sobre ordenadores y le preguntan: "¿Cree que una máquina podrá pensar y ser más inteligente que los seres humanos?"
Destaco algunas frases 👇
La clase es en septiembre del 85 y Feynman responde a la pregunta con una claridad sorprendente.
1/ Hace un par de días Reuters decía que OpenAI trabaja en un sistema de IA General llamado Q*, lanzando la preocupación por un riesgo existencial contra la humanidad.
¿Qué es la IA General (AGI)? ¿Es una amenaza para la humanidad?
Abro hilo 👇
2/ El viernes hablaba un momento en @MediodiaCOPE sobre el asunto, y enseguida “¿es el inicio de una IA que amenaza a la humanidad?”. 1drv.ms/u/s!ApZMeerBkA…
3/ Además de los que existen de forma natural, en los últimos 100 años la humanidad ha creado dos riesgos existenciales: la guerra nuclear y el cambio climático.
Ciencia ficción aparte, tiene sentido profundizar en si la IA puede provocar un riesgo de esta magnitud.
Ahora que parece que ya se ha terminado el culebrón de OpenAI, creo este hilo recopilatorio lo que ha ido sucediendo. Sin especulaciones. Hechos (o tuits, vaya).
EL viernes OpenAI arranca la fiesta anunciando una “transición en el liderazgo”.
Un comunicado donde se cuenta que despiden a su CEO, Sam Altman, porque “no fue consistentemente sincero en sus comunicaciones con la junta”. Anuncian también a Mira Murati, actual CTO, como nueva CEO interina openai.com/blog/openai-an…
1/ En unos días se cumple el primer aniversario de ChatGPT (y con culebrón desde el viernes).
¿Cómo funcionan los LLM, el sistema de inteligencia artificial con la que está hecho?
Abro hilo 👇
2/ Primero ordenar un poco la terminología.
ChatGPT es una interfaz web. Una aplicación con un chat.
ChatGPT usa un modelo de IA. En concreto GPT-3.5 y GPT-4, que son los modelos de OpenAI. Google tiene el suyo, PaLM, Meta tiene LLaMA… cada fabricante tiene los suyos.
3/ Todos estos modelos son de una categoría concreta, se les llama LLMs (Large Language Model).
En español modelos de lenguaje de gran escala (se traduce también como grande, de gran tamaño, o incluso colosal) .
1/ Es 1954, el primer disco de Elvis Presley empieza a sonar en las emisoras más atrevidas. Gracias al que puede ser la mayor invención del siglo XX, el rock & roll despega junto al primer dispositivo personal.
Abro hilo 👇
2/ La gran guerra había acabado. Se había logrado desarrollar grandes ordenadores, fundamentalmente para automatizar diversos cálculos.
3/ Estos primeros ordenadores, los Colossus, ENIAC, Mark I, UNIVAC y otros, eran enormes. Habían conseguido ser digitales gracias a los tubos de vacío. Sin embargo, los tubos de vacío hacían que fueran caros, pesados, grandes y consumieran mucha electricidad.