Jose Luis Calvo Profile picture
Dec 8, 2023 • 17 tweets • 8 min read • Read on X
1/ Recorrido por algunos de los papers que han marcado hitos en el desarrollo de la IA. Desde Alan Turing en 1950 hasta OpenAI ahora.

Abro hilo👇 Image
2/ Computing Machinery and Intelligence. 1950.

A partir de la pregunta “¿pueden pensar las máquinas?, Alan Turing, pionero de la informática, introduce el famoso Test de Turing para evaluar la inteligencia de una máquina.
academic.oup.com/mind/article/L…
3/ Dartmouth Summer Research Project. 1955.

McCarthy, Minsky, Shannon y Rochester lanzan esta convocatoria para la conferencia de Darmouth donde se acuña el término “Inteligencia Artificial”.
jmc.stanford.edu/articles/dartm…
Image
4/ The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. 1958. Frank Rosenblatt.

Fundamental para introducir el concepto del perceptrĂłn y uno de los trabajos pioneros en el campo de las redes neuronales.
direct.mit.edu/books/edited-v…
Image
5/ Perceptrons: An Introduction to Computational Geometry. 1969.

Este libro del pionero Marvin Minsky muestra que los perceptrones simples no pueden resolver problemas como un XOR, iniciando el primer invierno de la IA.

amzn.to/41gs8mH
6/ Learning Representations by Back-propagating Errors. 1986.

ArtĂ­culo seminal para el Deep Learning de Geoffrey Hinton, @geoffreyhinton. Se presenta el algoritmo de backpropagation, clave en el entrenamiento de RRNN profundas.
semanticscholar.org/paper/Learning…
Image
7/ Q-Learning. 1989.

Se presenta el algoritmo Q-learning, que se ha convertido en uno de los enfoques más influyentes en Reinforcement Learning.
link.springer.com/article/10.100…
8/ Gradient-based learning applied to document recognition. 1998.

Yann LeCun, @ylecun, y Yoshua Bengio participan en este paper pionero en redes convolucionales y computer visiĂłn. AplicaciĂłn de un OCR para la lectura de cheques.
researchgate.net/publication/29…
Image
9/ A Neural Probabilistic Language Model. 2000.

De nuevo Yoshua Bengio, en otro trabajo seminal, en este caso de los Word Embeddings.
papers.nips.cc/paper_files/pa…
Image
10/ ImageNet Classification with Deep Convolutional Neural Networks. 2012.

AlexNet impulsa el interés en las RRNN después de muchos años de ostracismo y da un salto en el ámbito de Computer Vision. Aparece Ilya Sutskever, @ilyasut, junto a Hinton.

papers.nips.cc/paper/2012/has…
Image
11/ Sequence to Sequence Learning with Neural Networks. 2014.

Uso de RRNN para modelado de secuencias aplicado a una traducción automática del inglés al francés. De nuevo Sutskever junto a Oriol Vinyals, @OriolVinyalsML.
arxiv.org/abs/1409.3215
Image
12/ Human-level control through deep reinforcement learning. 2015. DeepMind.

Demis Hassabis, @demishassabis, presenta el algoritmo DQN, que combina RRNN con Q-learning (Reinforcement Learning). Alcanza el nivel humano en varios juegos de la consola Atari.
semanticscholar.org/paper/Human-le…
Image
13/ Mastering the game of Go without human knowledge. 2017. DeepMind.

De nuevo DeepMind, con AlphaZero, da un salto en el uso de Reinforcement Learning, aplicándolo para resolver juegos de tablero.
semanticscholar.org/paper/Masterin…
Image
14/ Attention is all you need. 2017. Google.

Introduce la arquitectura Transformer, fundamental para los LLM actuales.
arxiv.org/abs/1706.03762
15/ BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. 2018. Google.

Presenta BERT, el primer LLM basado en transformers para el procesamiento del lenguaje natural.
arxiv.org/abs/1810.04805
Image
16/Language Models are Unsupervised Multitask Learners. 2019. OpenAI.

Introduce GPT-2, un LLM que marca el estado del arte en el que estamos ahora al aumentar el volumen de datos utilizado.
paperswithcode.com/paper/language…
Image
17/ Obviamente hay muchos papers, pero si tienes uno en mente que te parece especialmente relevante compártelo, por favor.

//FIN

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Jose Luis Calvo

Jose Luis Calvo Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @joselcs

Jun 8
1/ Creo que la forma del software está a punto de cambiar de forma radical, más allá del aumento de productividad cuando desarrollamos.
Los agentes autĂłnomos (agentic AI) pueden ser el inicio de un nuevo paradigma en el software.

Abro hilo 👇
2/ Hasta ahora, hemos vivido con una idea central: el software son líneas de código. Código que diseñamos, programamos, desplegamos...
Ese modelo ha durado más de 6 décadas, con muchas mejoras incrementales. Pero el núcleo ha sido el mismo.
3/ Al principio no habĂ­a software. Las computadoras se recableaban fĂ­sicamente.
Luego se separó la máquina de la función que desempeñaba con las tarjetas perforadas. ¿protosoftware? Image
Read 24 tweets
Feb 18, 2024
1/ Voy a intentar desarrollar por qué Sora de @OpenAI puede suponer un avance el camino de la IA general, y el motivo por el que, IMO, en la IA generativa es más importante la parte de comprensión que la de generación.


👇
2/ Parto de la premisa de que los modelos de lenguaje (LLM) entienden lo que dicen. No entienden como nosotros, pero a efectos prácticos necesariamente entienden el lenguaje para hacer todo de lo que son capaces. Insisto, aunque sea de manera diferente.

3/ Para conseguir esa comprensión parten de una representación semántica del lenguaje que de alguna manera podríamos decir que reconstruye un modelo conceptual del mundo.

Read 20 tweets
Feb 17, 2024
1/ @geoffreyhinton afirma que la inteligencia artificial (a la que se refiere como “digital”) es mejor que la biológica y que los LLM sí entienden lo que dicen.

Abro hilo 👇
2/ El tema es provocativo, pero me parece muy relevante analizar los argumentos de alguien como Hinton, premio Turing y pionero de las redes neuronales. Estuvo muchos años apostando por una tecnología en la que nadie creía.
3/ Primera afirmaciĂłn: Probablemente la inteligencia digital sea mejor que la biolĂłgica.
Read 24 tweets
Feb 4, 2024
1/ Hace unos meses, en una entrevista con @peterdiamandis, @emostaque, CEO de @stabilityai decía que "no habrá programadores en 5 años".

Abro hilo 👇
2/ Con el lanzamiento de GPT-4 @openai publicaba un estudio sobre el impacto potencial de los LLM en el trabajo. Planteabam que impatarán cuando sean necesarias habilidades de lenguaje y de programación.
arxiv.org/abs/2303.10130
3/ Esto es asĂ­ porque estos modelos entienden los lenguajes de programaciĂłn y pueden generar cĂłdigo. Fundamentalmente ocurre en el verano de 2020 con la publicaciĂłn de GPT3. Y fue una sorpresa grande. Bastante inesperado.
Read 23 tweets
Jan 28, 2024
1/ Una de las palabras que se han popularizado durante el año pasado es “prompt”. Podríamos decir que es el arte de susurrar a la Inteligencia Artificial.

El caso es que el prompting tiene más enjundia de la que parece a primera vista.

Abro hilo 👇 Image
2/ Lo primero es que las instrucciones que se le dan al modelo tienen que ser claras y precisas. Cuanta más información relevante se le de mejor.
En esta contextualizaciĂłn es habitual indicarle que rol tiene que asumir o a que audiencia va dirigido.
Image
Image
3/ En estas instrucciones también podemos ser precisos en cómo queremos la respuesta. La longitud, el formato, con bullets, una tabla…
Image
Image
Read 23 tweets
Jan 17, 2024
1/ Las principales técnicas para aprovechar los modelos de lenguaje (LLM) son prompting. RAG y fine-tuning.
Vamos a recorrer cada una de ellas. Abro hilo 👇
2/ Prompting es la más básica. Cuando escribimos algo (un prompt) en ChatGPT estamos haciendo Prompting.
Las instrucciones que damos al modelo van a determinar la calidad de la respuesta. Es mucho más potente de lo que inicialmente puede parecer.
3/ Desde usar delimitadores, estructurar el prompt con un contexto, una instrucción clara y una especificación del formato, hasta otros más anecdóticos como añadir un “te doy una propina si lo haces bien”.
arxiv.org/abs/2312.16171
Read 19 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us!

:(