En general, muy centrados en AI y comprender las búsquedas, en aprovechar su grafo de productos para ecommerce y en mejorar el aspecto visual de la búsqueda (algunas novedades recuerdan bastante a Pinterest).
Ejemplos en el 🧵
Ahora podremos mezclar imágenes y palabras al usar Google Lens, gracias a MUM (Multitask Unified Mode).
Ejemplo de Google: apunta a una bici averiada y pregunta ¿cómo arreglo esto? Mi opinión: esto va a tardar en funcionar bien, pero quizá, combinado con la siguiente novedad...
podría ser bastante útil. "Refinar esta búsqueda" y "Ampliar esta búsqueda" serán opciones que podremos aplicar a las búsquedas dentro de unos meses.
IComo hacer zoom o agrandar una imagen, pero con keywords. El modo Refine puede hacer más importantes aún los términos long tail
Más cosas de MUM. Será capaz de identificar un tema en un vídeo, incluso aunque este tema no se mencione explícitamente.
Y permitirá extraer subtemas de las búsquedas para enfocarnos en ellos por medio de un nuevo módulo: Things To Know.
Para ciertos temas que Google identifica como "en busca de inspiración", se lanzará un nuevo diseño de SERP, más visual y navegable - como un Discover o Pinterest dentro de Google, en el que según parece todos los resultados orgánicos tendrán imagen grande o preview de vídeo.
Aquí el resumen de Google de sus avances en materia de IA y comprensión de búsquedas: blog.google/products/searc…
#ecommerce. Se estrena el filtro "In Stock", para que los usuarios puedan ver tiendas cerca que tienen un producto concreto a la venta.
Si es como parece, significará que las tiendas con ficha de GMB podrán tener un escaparate tipo ecommerce para su catálogo.
Las SERPs modo feed visual también llegarán a las búsquedas de ropa, calzado y accesorios. Por ahora sólo para móvil. Yo aún no lo veo, pero por ejemplo la búsqueda "cropped jackets" devolverá este feed visual, directamente en la pestaña de búsqueda, sin ir a imágenes o productos
Google Lens se integrará mejor dentro de la app de Google (empezará por iOS). Dando a un botón, haremos que todas las imágenes de una página se hagan "buscables" mediante Lens.
Lens llegará también a Chrome en desktop. Podrás hacer clic en una imagen de la página y ver resultados de búsqueda relacionados, en esa misma pestaña. Esto imagino que hará bastante daño a Pinterest.
Ayer, un juez de EEUU dictaminó que Google ha ejercido un monopolio ilegal en la búsqueda.
Su sentencia (casi 300 páginas) resume lo que han declarado los testigos y aparece en los documentos del juicio, y contiene mucha info relevante para SEO.
HILO y lo explico 👇
Rastreo e indexación
• Google y Bing son hoy los únicos buscadores generales en con un índice de búsqueda web completo
• Apple también mantiene un index de miles de millones de páginas web, pero no tiene planes de usarlo para servir resultados de búsqueda 😲
Comprensión de la consulta
Google emplea varias estrategias:
• Identificar errores ortográficos
• Anotar la consulta con sinónimos
• Marcar conceptos de varias palabras
• Términos relacionados
• Agrupación y segmentación de consultas
El juicio contra Google está siendo un auténtico tesoro de información sobre cómo funciona realmente su sistema de ranking. 🔥
Te cuento todo lo que hemos sabido sobre el papel que juegan los evaluadores de calidad humanos en ese proceso. Ojo, que hay sorpresas.
Vamos... 🧵⤵
⚠️ Esta es la segunda parte de mi hilo de hace unos días resumiendo el testimonio de Pandu Nayak, VP de Search, sobre el papel de clics de usuarios y sistemas de Deep Learning en los ranking de Google.
En el hilo anterior te conté que al menos 2 sistemas de Deep Learning estaban entrenados no sólo con datos de interacción de usuarios, sino también con datos sacados de los evaluadores:
¡Se acabó la espera! Ya tengo acceso a los nuevos GPTs de OpenAI 🔥
Si ves el botón Explore arriba a la izquierda, tú también podrás acceder ya a los GPTs creados por OpenAI y por otros usuarios.
Te cuento cómo encontrar todos los GPTs creados por usuarios en este hilo... 🧵⤵
Los GPTs son como un ChatGPT hecho a medida para un fin concreto (por ejemplo, responder dudas sobre una documentación, o actuar como tu oponente en una negociación).
OpenAI ha compartido ya 16 GPTs, que puedes encontrar en la pestaña Explore.
Además, los usuarios que ya tienen acceso a la herramienta para crear GPTs han empezado a compartir los suyos propios.
Si haces clic en el enlace para uno de estos GPTs creados por la comunidad, podrás acceder e interactuar con ellos. Por ejemplo: chat.openai.com/g/g-I1XNbsyDK
Primero: lo más revolucionario va a ser lanzado como producto experimental y por ahora sólo en EEUU. Puedes intentar apuntarte a la lista de espera para probarlo (aunque me temo que sin VPN, nada).
Este producto experimental (Search with Generative AI) es una interfaz nueva, más en línea con ChatGPT o el nuevo Bing.
En lugar de párrafos de texto, la respuesta será una SERP completa con contenido en varios formatos diferentes, dando contexto y links para profundizar.
Según una exclusiva del Wall Street Journal, Google prepara un buscador no sólo con IA, sino más visual y personalizado, con más vídeos y alejándose del formato "10 links azules".
Este estilo de SERP, visto como test desde hace meses, podría ser la antesala a este nuevo Google.
Ya digo q esto no es radicalmente nuevo.
Se lleva viendo al menos desde nov 2022 (fecha de algunos de estos pantallazos), y en el fondo es la dirección general en la que ha avanzado Google desde hace varios años (hoy ya casi no hay SERPs 100% 10 links azules).
Pero si combinamos esto con otras dos novedades (integración de resultados generados por IA e inclusión de "perspectivas" o mensajes de usuarios en foros y redes sociales, también testeado ya) tendríamos un buscador bastante distinto a lo que estamos acostumbrados.