En la @vidamoderna se han hecho eco del artículo escrito por GPT-3 para The Guardian. Si bien el artículo tiene matices, me ha gustado que hayan tratado el tema así que como homenaje voy a mostrar a @_Queque_@IgnatiusFarray y @davidbroncano lo que GPT-3 puede hacer! :)
HILO🧵👇
Como bien explican, GPT-3 te permite dar un comienzo de texto y que luego la IA continúe autocompletando de manera realista. Esto tiene muchas opciones, y en este caso lo que he copiado ha sido el propio diálogo del programa (en negrita) y dejar que la IA siga hablando por ellos!
Dependiendo de la naturaleza del texto de entrada, GPT-3 generará conversaciones más o menos ricas. Por eso le he dado en esta una de las mejores conversaciones de esta temporada, para dejar que la IA siga filosofando como @IgnatiusFarray sobre la commed-IA
Claro, al igual que ha pasado con el artículo de The Guardian, en realidad esto es infinito, y puedes regenerar la conversación tantas veces cómo quieras, hasta encontrar el resultado que más te guste.
¡Y entretenido es un rato!
En el programa también fantasearon con enfrentar a esta IA con @IsaiasLafuente en una batalla de editoriales.
Humano Vs Máquina
Y aunque no cuento con el Isaías de verdad, puedo usar GPT-3 para fingir una conversación con él (Isa-IAs) para que debatan sobre el tema que es relevante.
Leedlo y no olvidéis que en realidad ambos personajes están escritos por GPT-3😏
De estas conversaciones es importante remarcar, que al final yo estoy haciendo un ejercicio de filtrado y eligiendo los mejores resultados PERO es cierto que en ningún caso me ha llevado más de 3 minutos generar estas parrafadas. Lo cuál hace de esto un herramienta impresionante.
Por último, si desde @vidamoderna queréis hacer en directo alguna prueba, me tenéis a disposición.📩♥
*[Este hilo ha sido escrito 100% por un humano]
• • •
Missing some Tweet in this thread? You can try to
force a refresh
Un artículo de Reuters filtra información de una investigación interna llamado Strawberry, anteriormente conocido como Q* -chann channn!-
📰 El artículo la verdad que pone palabras a mucho de lo que se ha venido especulando en el último año:
→ Hablan de modelos "strawberries" para referirse a IAs con capacidad mejorada de razonamiento.
→ Ya se había filtrado anteriormente sobre Q* su capacidad de resolver problemas complejos de ciencia y matemáticas.
→ La técnica sería de post-entrenamiento. Es decir, una vez entrenas un LLM o LMM, puedes aplicarla para mejorar sus capacidades (como sucede con RLHF)
→ Apuntan a un paper de Stanford del que podría estar basado (Self-Taught Reasoner - STaR). Quizá de ahí la estrella de Q* y también el comienzo de STRawberry.
→ OpenAI busca con esta técnica lograr que las IAs puedan resolver long-horizon tasks. Es decir, tareas que recorrieran de planificación y ejecución de múltiples pasos y decisiones.
→ Investigan el usar estas capacidades de ejecución de tareas complejas conectándolo a un agente que ejecute en un ordenador instrucciones, y realizando trabajo de ingeniero de software y ML.
Bastante información, de la que mucho se había especulado, y que se aproxima a lo esperado. Aún así, una cosa es especular y otra tener (mediante filtraciones) la confirmación de que es eso.
Muy intrigado de las nuevas capacidades de la próxima generación de modelos!
El modelo no sólo es rápido, sino que los resultados son buenos!
Con lo que ahora contamos con una nueva herramienta que facilitará el editar los vídeos de generación de IA, tanto para interpretar poses o para sincronización labial.
En colaboración con Freepik hoy os traigo uno de los inpaintings más rápidos de internet y una de las suite de herramientas lA más completas para retocar vuestras imágenes. Ah, y os daré acceso GRATIS!
¿Cómo? Atentos al este hilo 🧵👇
1. Generación de imágenes!
Este será nuestro punto de partida. Escribes un prompt, eliges estilo, y pum! En este caso la velocidad de generación de Freepik me permite visualizar entre los diferentes estilos sin necesidad de consumir
créditos, lo cual es muy útil! ✨
2. Reimagina tu creación!
Nuestra imagen es una primera idea, pero si queremos explorar alternativas, la opción Reimagine es la leche!
Aquí la lA te describirá automáticamente tu imagen en un prompt donde para cada concepto podrás variar y
re-imaginar múltiples alternativas.
En un nuevo blog post publicado por OpenAI responden a la demanda interpuesta por Musk la semana pasada. Más allá del salseo, esta "batalla" nos está dando acceso a muchos documentos interesantes que narran la historia de OpenAI.
Veamos 👀🔥👇
La primera cosa interesante la encontramos al final del artículo, donde podemos ver que lo firman los pesos pesados de OpenAI, con el desaparecido Ilya Sutskever también!
Que desde la crisis de Noviembre con el despido de Sam no se le veía...
En un primer correo vemos que en 2015, cuando se planificó la creación de OpenAI -recordemos, para competir contra DeepMind- Elon insistió en inflar la financiación para dar más status al laboratorio frente a gigantes como Google o Facebook.
¿Te gustó Oppenheimer?
¡No dejes de leer OpenAI-mer!
Enserio. Si algún día se quisiera escribir una novela sobre OpenAI, la demanda interpuesta por Elon Musk es un documento espectacular en el que basarse
Acabo de leerla y realmente contiene un montón de datos interesantes! :)
El documento es este y contiene información sobre el origen de OpenAI, las donaciones de Elon, el miedo a DeepMind y a Google, GPT-4, Q* y la AGI.
¡Lo tiene todo! Además ordenado cronológicamente. Sólo recordad que se escribe desde la perspectiva de Elon. courthousenews.com/wp-content/upl…
¿Mi opinión tras leerlo? El problema que tiene el documento es que depende de considerar a GPT-4 una AGI -cosa que no es y cosa que nadie ha definido como tal- pero incluso solicita que se determine judicialmente que así es.
De hecho en partes anteriores del documento hace trampa hablando de que GPT4 estaría dentro del umbral de la AGI -lo cuál no es un concepto rigurosamente definido-, y para basarse en ello hace referencia a papers como el de "Spark of AGI".
Pero claro... si algo muestra "chispas" de AGI, es que no es una AGI. Igual que un niño puede mostrar potencial para convertirse en un excelente matemático, y sin embargo eso no le convierte en matemático.