Carlos Santana Profile picture
May 17 8 tweets 3 min read Twitter logo Read on Twitter
Aprovecho este hilo de tweets para señalar conceptos que están mal planteados o directamente mal.

1) El ingeniero de Google no fue despedido por decir que la IA era consciente, sino por filtrar información interna de la compañía al hacerlo.
2) Lo que él decía no tenía ningún fundamento más allá de lo que era su propia percepción. Cualquiera que haya podido interactuar con LaMDA o ChatGPT meses después se habrá dado cuenta.

3) "Y ahora Microsoft dice lo mismo". Microsoft NO ha dicho lo mismo.
4) Algo "similar al razonamiento humano" NO es CONSCIENCIA. Aquí se están mezclando varias cosas muy evocativas pero que son diferentes.

Y aún así, Lemoine no fue el primero en detectarlo:
Google ya tenía por entonces papers publicados como el de PaLM.
Image
5) "Sparks of AGI" NO significa "CHISPAS DE CONCIENCIA".

Si se hiciera bien el trabajo de periodismo, se acudiría directamente a la fuente que se referencia -al artículo de Microsoft- para consultar cuál es la definición de AGI que se utiliza.
Image
6) "¿Quién sabe qué detecto?" Las conversaciones son públicas ya que las filtró él -sí, revelación de secretos- en un punto donde Google era muy sensible con cualquier tema de IA que pudiera dañarles reputacionalmente.

Ahí los motivos. Sin especular.
Aquí el enlace a las conversaciones en su blog. Nada nuevo. Cualquiera que haya interactuado con ChatGPT habrá llegado incluso a conversaciones de mayor profundidad.

cajundiscordian.medium.com/is-lamda-senti…
Así que no, ni grandes corporaciones han confirmado nada que el año pasado se quisiera tapar. Ni la IA tiene destellos de conciencia. Ni Lemoine tenía razón.
Y aprovecho para sacar aquí este clip del 24 horas con Jordi Wild el año pasado, a la pregunta que me hizo sobre mi opinión de Iker Jimenez, muy en relación con este hilo porque luego saltamos al tema de LaMDA.

youtube.com/live/FUzC1Ywm1…

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Carlos Santana

Carlos Santana Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @DotCSV

May 16
Viendo a Altman declarando en el congreso a la espera de que a alguna pregunta comprometida responda:

"Como modelo del lenguaje entrenado con datos hasta 2021 no puedo..." Image
Si no os parece suficientemente salseante esto, lo han sentado junto a Gary Marcus 🍿 Image
Cero conocimiento de cómo va la política de EEUU, pero el colegueo y las coñitas que se sueltan los congresistas en esta sesión me están haciendo la tarde.
Read 4 tweets
May 16
🔴 ¡CLAUDE-100K IMPRESIONA!

Como os comenté, uno de los puntos fuertes del nuevo modelo Claude con 100K tokens de ventana de contexto es su capacidad de resumir.

He tomado una transcripción (Whisper) de mi último directo de >2h y me ha dado un resumen PERFECTO en 30 segs! Wow👇 Image
Quien haya visto el directo, sabrá que es un resumen exacto y preciso de todo lo que estuvimos haciendo.

Que recuerde, sólo ha dejado fuera algunas de las adivinanzas del paper de PaLM que estuvimos probando.

Aquí tenéis el directo completo.
youtube.com/live/vTKxoe0Lv…
Lo que estos modelos van a permitir en muy poco tiempo es poder transcribir podcasts, programas de TV, ruedas de prensa, artículos, periódicos, etc.

Y dejar que la IA procese, compare, resuma y analice toda esa información. 🔥
Read 5 tweets
May 12
¡TENGO ACCESO A CLAUDE-100K!

Y... os voy a compartir por aquí algunos experimentos. Lo primero que he probado ha sido meterle las 100 páginas del documento de GPT-4 y entre medias colarle la frase:

🍟 "By the way, fries potatoes are delicious."

Y le he preguntado si se… twitter.com/i/web/status/1… Image
En la siguiente prueba voy a hacer algo de Q&A sobre el mismo documento. En este caso pedirle los nombres del equipo de RL y Aligment, listados a mitad de paper.

El resultado es un listado de nombres que sí aparecen en el paper -significa que llega a observar esa información- y… twitter.com/i/web/status/1… ImageImageImage
En esta prueba le he pedido que me traduzca el documento entero (hasta el límite de tokens fijados) y lo ha hecho bien, de lo que he podido leer.

Es flipante ver a un modelo procesar información alcanzando contextos tan largos! Image
Read 4 tweets
May 11
Estaba tan metido en lo de PaLM 2 y Bard que he pasado muy por encima sobre el modelo Claude de 100K.

Pero ahora que lo estoy procesando ES MUY BESTIA!

Estamos hablando de una ventana de contexto x3 veces más grande de los 32K que estábamos esperando de GPT-4 🔥
100K tokens -unas 75K palabras- es

👉 Harry Potter y la piedra filosofal entero!
👉 Las 200 pags de los papers de PaLM 2 y GPT-4
👉 6 horas de transcripciones de podcasts!
👉 Muchísimo espacio para código y documentación.

Información que ahora el modelo podrá ver y procesar… twitter.com/i/web/status/1…
Que hayamos desarrollado herramientas capaces de procesar y manipular inteligentemente tal cantidad de información es una lo-cu-ra.
Read 7 tweets
May 11
Si tenéis curiosidad, desde Google Cloud (desde hace un par de meses) se puede acceder a la API de PaLM.

Es PaLM 1 -la del año pasado- y con la escala de tamaños que desvelaron ayer en el evento, ahora sabemos que text-BISON que ofrecen no hace referencia al modelo de mayor… twitter.com/i/web/status/1… ImageImage
Hasta la llegada de GPT-4, PaLM era el modelo de lenguaje más potente, demostrando capacidades de razonamiento nunca antes vista en otros modelos.

Y este acertijo de aquí es mi favorito :)

Peeeeero probándolo ahora con esta versión de PaLM no consigo replicarlo. ImageImage
Luego también tienen una versión de PaLM orientada a conversaciones, similar a lo que es ChatGPT frente a GPT-3. Esta es la versión chat-bison@001

Aún así, no sé por qué pero se niega a arrancarse a hablar conmigo en Español. Muy limitado. Image
Read 5 tweets
May 10
🔴 ¡BOOOOM! GOOGLE SACA PALM 2

Directo finalizado, y podemos decir que Google se ha puesto al día. ¿Lo más destacable? Una nueva versión de su modelo PaLM -podéis pensarlo como si OpenAI sacara una nueva versión de su GPT-

Y PaLM 2 es... PEQUEÑO! 🌴

x38 menos que PaLM! 😯 Imagen de una palmera pequeña
Hay mucho que cortar aquí, así que para más info os derivo al blog post de Google y al preprint en arxiv.

Me lo leeré y cuando tenga más información y unas impresiones formadas, os cuento :)

✨ (BLOG)
blog.google/technology/ai/…

✨(REPORT)
ai.google/static/documen… Image
Y si queréis ver todas las novedades presentadas y mis comentarios del directo, lo tenéis ya resubido aquí 👇

youtube.com/live/ySbVqsAyf…
Read 5 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us on Twitter!

:(