Acostumbramos a ver cuadros famosos por como se muestran en el museo, pero lo que muchos desconocen es cómo eran estas obras en sus lienzos originales.
Este quizá sea uno de los casos más llamativos, dejando en el olvido aquello que se decía de "La Luna Mona" 👇
O el famoso grito de Munch, una obra mucho más perturbadora cuando ampliamos el plano.
Así grito hasta yo...
¿La famosa ola? Esconde motivos florales como este precioso cerezo en flor
Y las estrellas de la noche estrellada se reflejaban en los canales 😍
Y la terraza del café, pintada con un objetivo gran angular, quedaría de la siguiente manera.
Ampliando el Guernica se hace más evidente el infierno de la escena.
Para quien desconozca el proceso de cómo he hecho las imágenes anteriores, estoy usando una IA llamada DALL•E 2 para completar las partes faltantes de una imagen (inpainting).
1) Primero uso una app de edición para extender los bordes de un cuadro famoso. Por ejemplo, Monet 👇
2) Borro aquellas partes que quiero que la IA complete, y le doy muy pocas pautas como input de texto para no condicionar el resultado (en este caso, sólo el nombre del pintor).
En pocos segundos, estos es lo que obtenemos 🤯 🖼️
En 15 seg, obra creada!
La parte mas complicada del todo el proceso siempre suele ser elegir cuál de todos los resultados publicar :)
Y en realidad, esto es tan infinito como el lenguaje. Si quiero puedo pedirle la foto del cuadro colgado en el salón de mi casa.
O una fotografía del lienzo mientras se estaba pintando el cuadro!
¿Os tengo convencidos del potencial de DALL•E 2? ¿Sigo?
Y con Edward Hopper cerramos el museo por hoy. No dejéis de compartir este pedazo de hilo y dejadme recomendaciones de cuadros o fotografías históricas que queráis ampliar! ♥️
Esta tarde abriré las puertas del museo con nuevas obras (...vamos, que continuaré el hilo).
Mientras tanto y para que veáis que el potencial de esta herramienta no queda sólo en cuadros conocidos, mirad este hilo! 👇🧵
¡Se abre el museo! Y continuamos donde lo dejamos ayer con Hopper, ampliando la obra a la que le cantó Pitbull con su famoso Hotel Room 👇
Me preguntabais qué pasa si ampliaba varias veces la obra, un resultado tras otro. Pues lo que sucede es que ponemos a la IA a soñar ✨
De mis favoritas ayer fueron las de Monet, vamos a hacer una nueva prueba. Este será el input.
¡Y este es el resultado! 😍
¿Las Meninas? Cuando te alejas demasiado resulta que acabas metido en otro salón. Una nueva perspectiva 👀
Frida Kahlo, calienta que sales!
¡BUUUUUUM!
¡El Madrileño!
Y de lo clásico a algo más antiguo 🦬
Escher 🔮✨
¡Aleja la cámara!
El matrimonio Arnolfini en la distancia.
El próximo experimento tiene un toque especial porque el resultado lo podemos comparar con un inpainting histórico real, tal y como nos cuenta @AlbaCeColl en este hilo tan bien hilado de Las Hilanderas de Velázquez.
La nueva capacidad de ChatGPT de navegar y ejecutar acciones en internet, y razonar durante más tiempo usando las herramientas adecuadas (generación y ejecución de código, generación imágenes, etc.) para cumplir su tarea
Os voy contando! 👇🧵
Primero lo más importante, ¿quienes acceden?
> Usuarios Plus: 40 prompts al mes
> Usuarios Pro: 400 prompts al mes
> Usuarios europeos: jajaj lol
¿Qué es ChatGPT Agent? 🤔
Pensadlo como la evolución natural de ChatGPT, integrando herramientas como Operator (capacidad de navegar por internet) con el resto de habilidades de ChatGPT (conectores a servicios de terceros, generación de imágenes, ejecución de código, etc)
La verdad es que la experiencia es "muy Midjourney" en el buen sentido de la expresión:
De cualquier imagen puedes generar en 1 minuto 4 animaciones diferentes de 5 segundos a 480p.
Luego, la que te guste, puedes seguir extendiéndola en más generaciones.
De precios, podéis usar el generador de vídeos desde el plan más barato (10$/mes) y cuesta x8 veces más crear un vídeo que una imagen –medido en horas de GPU, que es el sistema de créditos que usa Midjourne
Tras muchas horas sin internet, aquí unas primeras impresiones del nuevo sistema de programación autónoma presentada por OpenAI ayer: CODEX
Un repaso rápido 👇🧵
Para los despistados, Codex es la nueva herramienta agéntica de OpenAI, en este caso orientada a labores de programación: te conectas a tu base de código, puedes hacerle preguntas a la IA, pedirle que te arregle bugs o que implemente nuevas funcionalidades.
Lo interesante de este sistema es que trabajará en lo que le asignes en un rango de tiempo que puede ir de 1 a 30 minutos, trabajando en segundo plano, mientras tú te puedes quedar depurando qué hace o tomándote un café.
La plataforma tiene potencial porque ahora mismo no pretende ser un producto final (de hecho está marcado como research preview) sino un punto de partida para ir automatizando cada vez más las labores de programación y SWE.
Según los modelos sigan haciéndose más rápidos, más capaces y baratos, este tipo de plataformas irán aportando más y más valor.
Además, seguramente Codex se nutra bastante del talento tras la adquisición reciente de Windsurf.
Nada huele más a ciclo virtuoso camino a la AGI que ver a sistemas de IAs automatizando el descubrimiento de nuevos algoritmos y optimizando campos como la informática y las matemáticas.
¡Y eso hace AlphaEvolve! Os cuento 👇🧵
Este trabajo sigue la línea de investigaciones previas como AlphaCode o FunSearch, combinando las capacidades más "creativas" de los LLMs para la búsqueda de hipótesis e ideas, con evaluadores automáticos que vayan comprobando las soluciones candidatas.
El proceso a muy alto nivel sería el de tener a una IA que propone ideas candidatas, muchas, para lo que modelos ágiles como Gemini Flash van bien y que luego son depuradas con la IA más lista, Gemini Pro.
De esas soluciones, se evalúan con los verificadores y de esas puntuaciones se puede guiar a los LLMs para "evolucionar" sus ideas a incluso mejores soluciones.
Le das al play, y epa, a programar!
¿Resultados? Pues Google ha conseguido optimizar varios puntos claves de su infraestructura. Algo que a la escala a la que opera Google pues supone grandísimos ahorros.
Un año más aquí os traigo 24 ideas de lo que creo podría pasar en el mundo de la Inteligencia Artificial durante este año.
24 predicciones que vosotros también podéis votar como probable usando el botón 💖
En 12 meses verificamos 😄👇
#1🔮 HEY… ¡TU CARA ME SUENA!
Al acabar el año será sencillo crear un avatar hiperrealista de tu persona con el que, emulando tu voz, apariencia y forma de hablar, podrás tener una conversación natural.
Aunque será percibido como algo extravagante algunos negocios empezarán a utilizar en espacios públicos como alternativa a servicios de cara al cliente.
#2🔮 EXPLOTA LA CREACIÓN AUDIOVISUAL IA
Internet se inundará de vídeos IA.
A nivel profesional, veremos al menos una web serie de éxito producida íntegramente con IA.
En el sector del cine y series será frecuente ver usos de la IA para la edición o generación de parte del metraje.
En un año, mínimo 1 de cada 4 anuncios de televisión emitidos usarán IA generativa para su producción.
La producción de contenido en 2D/3D/animación se abaratará, reduciendo drásticamente la brecha entre cine indie y producciones mayores.
La versión Turbo a la que nos han dado acceso no se sostiene por ningún lado, y la cosa hubiera quedado camuflada entre todos los anuncios de OpenAI si no fuera por el nuevo golpe sobre la mesa que ha dado Google con Veo 2