Acostumbramos a ver cuadros famosos por como se muestran en el museo, pero lo que muchos desconocen es cómo eran estas obras en sus lienzos originales.
Este quizá sea uno de los casos más llamativos, dejando en el olvido aquello que se decía de "La Luna Mona" 👇
O el famoso grito de Munch, una obra mucho más perturbadora cuando ampliamos el plano.
Así grito hasta yo...
¿La famosa ola? Esconde motivos florales como este precioso cerezo en flor
Y las estrellas de la noche estrellada se reflejaban en los canales 😍
Y la terraza del café, pintada con un objetivo gran angular, quedaría de la siguiente manera.
Ampliando el Guernica se hace más evidente el infierno de la escena.
Para quien desconozca el proceso de cómo he hecho las imágenes anteriores, estoy usando una IA llamada DALL•E 2 para completar las partes faltantes de una imagen (inpainting).
1) Primero uso una app de edición para extender los bordes de un cuadro famoso. Por ejemplo, Monet 👇
2) Borro aquellas partes que quiero que la IA complete, y le doy muy pocas pautas como input de texto para no condicionar el resultado (en este caso, sólo el nombre del pintor).
En pocos segundos, estos es lo que obtenemos 🤯 🖼️
En 15 seg, obra creada!
La parte mas complicada del todo el proceso siempre suele ser elegir cuál de todos los resultados publicar :)
Y en realidad, esto es tan infinito como el lenguaje. Si quiero puedo pedirle la foto del cuadro colgado en el salón de mi casa.
O una fotografía del lienzo mientras se estaba pintando el cuadro!
¿Os tengo convencidos del potencial de DALL•E 2? ¿Sigo?
Y con Edward Hopper cerramos el museo por hoy. No dejéis de compartir este pedazo de hilo y dejadme recomendaciones de cuadros o fotografías históricas que queráis ampliar! ♥️
Esta tarde abriré las puertas del museo con nuevas obras (...vamos, que continuaré el hilo).
Mientras tanto y para que veáis que el potencial de esta herramienta no queda sólo en cuadros conocidos, mirad este hilo! 👇🧵
¡Se abre el museo! Y continuamos donde lo dejamos ayer con Hopper, ampliando la obra a la que le cantó Pitbull con su famoso Hotel Room 👇
Me preguntabais qué pasa si ampliaba varias veces la obra, un resultado tras otro. Pues lo que sucede es que ponemos a la IA a soñar ✨
De mis favoritas ayer fueron las de Monet, vamos a hacer una nueva prueba. Este será el input.
¡Y este es el resultado! 😍
¿Las Meninas? Cuando te alejas demasiado resulta que acabas metido en otro salón. Una nueva perspectiva 👀
Frida Kahlo, calienta que sales!
¡BUUUUUUM!
¡El Madrileño!
Y de lo clásico a algo más antiguo 🦬
Escher 🔮✨
¡Aleja la cámara!
El matrimonio Arnolfini en la distancia.
El próximo experimento tiene un toque especial porque el resultado lo podemos comparar con un inpainting histórico real, tal y como nos cuenta @AlbaCeColl en este hilo tan bien hilado de Las Hilanderas de Velázquez.
Un año más aquí os traigo 24 ideas de lo que creo podría pasar en el mundo de la Inteligencia Artificial durante este año
24 predicciones que podéis votar y apoyar una a una usando el botón 💖
¡Comparte el hilo! En 12 meses verificamos 😄👇
#1 🔮 MODELOS ON CHIPS
Se demostrará por parte de uno de los principales laboratorios el potencial de quemar modelos de ia directamente en hardware especializado.
Sustituyendo parte de las capas de software por lógica física se demostrarán saltos masivos (órdenes de magnitud) en velocidad y eficiencia.
Incluso frente a los sistemas más punteros actuales, la mejora será evidente y no se tratará de un experimento aislado como se ha visto anteriormente sino de una declaración de intenciones que podría marca un nuevo camino.
#2 🔮 AGENTES DE HORIZONTE MÁS LARGO
Las predicciones proyectadas por METR son ambiciosas:
“cada 7 meses se duplica el horizonte autónomo medido en horas de trabajo humanas que una IA puede resolver”.
¡Una burrada! Y aún así para finales de 2026 las estimaciones volverán a quedarse cortas.
En concreto llegaremos a:
👉 Horizonte del 50% : 14 horas (expectativa 8h) ²
👉 Horizonte del 80% : 3 horas (expectativa 1h)
────────────
¹ Estos resultados se validarán con los modelos evaluados por METR a 31 de Diciembre 2026, lo cual quizás no coincida con los últimos modelos disponibles a finales de año.
² Podría ser difícil obtener esta evaluación sin una actualización en las tareas de horizonte más largo que forman parte de METR
Surge una nueva compañía, Math Inc, con la noble misión de automatizar con IA los descubrimientos en matemáticas
Su lema: "Solve math, solve everything"
Y ayer presentaron en un blog los resultados de su primera investigación, Gauss, y ojito! 👇
Gauss es un sistema de autoformalización que escribe y verifica automáticamente pruebas en Lean, trabajando ininterrumpidamente durante horas.
Gauss ejecuta el verificador, detecta fallos y propone correcciones -todo en bucles automáticos y a gran escala: Según el anuncio el sistema ha generado ~25k líneas y ~1k teoremas.
El uso de esta herramienta tan potente en combinación con la experiencia de profesionales humanos, ha permitido en 3 semanas desatascar y completar el reto planteado por Terence Tao y Kontorovich, cuyo progreso había quedado encallado tras 18 meses de trabajo humano!
Con mejoras incrementales en su inteligencia, un precio muy competente, y una presentación descafeinada que no ha entusiasmado... Os cuento más detalle del nuevo modelo por defecto de ChatGPT
Antes que nada, si queréis ver todas las conclusiones sobre GPT-5, tenéis resubido el directo que acabamos de finalizar, con la presentación (interesante la primera parte) y mis análisis al principio y al final 👍
Si eres de los usuarios que no sabía para que servían esos modelos con nombres raros del selector, felicidades! Hoy has recibido un modelo mucho más potente y útil 🎉
En cambio, si sigues la actualidad de la IA, pues sí... esta es una evolución incremental más 👍
OpenAI ha recordado de donde venía lo de 'open' y acaba de liberar sus nuevos modelos razonadores pensados para realizar tareas agénticas 🔥
> Un modelo de 20B para PC y portátiles
> Un modelo de 120B para datacenters y PCs high-end
Os cuento!
Dice Sam que GPT-OSS (el nombre del modelo) es comparable a o4-mini y capaz de ser ejecutado en tu propio ordenador!
Según creen ellos, es el mejor modelo y más utilizable jamás liberado. Pero eso lo decidirá la comunidad :)
El modelo grande es ejecutable con 80GB de VRAM (poco asequible para la mayoría) y es el modelo comparable con o4-mini.
El modelo mediano es ejecutable con 16GB de VRAM (bastante apto para muchos PCs) y es comparable a o3-mini.
La verdad, que estén regalando modelos tan cercanos a la frontera de capacidades actuales me pone muy optimista ante el margen que OpenAI puede tener internamente :)
La nueva capacidad de ChatGPT de navegar y ejecutar acciones en internet, y razonar durante más tiempo usando las herramientas adecuadas (generación y ejecución de código, generación imágenes, etc.) para cumplir su tarea
Os voy contando! 👇🧵
Primero lo más importante, ¿quienes acceden?
> Usuarios Plus: 40 prompts al mes
> Usuarios Pro: 400 prompts al mes
> Usuarios europeos: jajaj lol
¿Qué es ChatGPT Agent? 🤔
Pensadlo como la evolución natural de ChatGPT, integrando herramientas como Operator (capacidad de navegar por internet) con el resto de habilidades de ChatGPT (conectores a servicios de terceros, generación de imágenes, ejecución de código, etc)
La verdad es que la experiencia es "muy Midjourney" en el buen sentido de la expresión:
De cualquier imagen puedes generar en 1 minuto 4 animaciones diferentes de 5 segundos a 480p.
Luego, la que te guste, puedes seguir extendiéndola en más generaciones.
De precios, podéis usar el generador de vídeos desde el plan más barato (10$/mes) y cuesta x8 veces más crear un vídeo que una imagen –medido en horas de GPU, que es el sistema de créditos que usa Midjourne