Para evitar que un usuario pueda consultar el artículo sin pagar igualmente :
1. Se suele impedir el uso del cache con el noarchive en la meta robots 2. Únicamente Googlebot (verificado) puede acceder al contenido completo
Para comprobar el segundo punto, puedes acceder a un contenido bloqueado usando search.google.com/test/rich-resu… y verás que puedes ver todo.
Es une forma lícita de hacer cloaking realmente.
Esa son las directrices oficiales. Ahora también puedes implementar algo ligeramente diferente.
En una implementación clásica, el contenido premium no estará en el código fuente si no eres Google.
En otros portales:
1. El contenido se carga completamente, como si fuese gratis 2. Mediante el valor de un cookie, una solicitud POST se hace, devolviendo una orden que muestra el muro de pago al usuario
Google lo ve como un contenido gratis.
Esta implementación es menos estándar pero, desde mi perspectiva, funciona muy bien. Y no cambia nada para el usuario.
Eso sí, la implementación es más compleja pero supongo que hay un motivo :)
Para preguntas avanzadas sobre los muros de pago, creo que @ClaraSoteras y @mazariegos_seo te podrán ayudar más.
No te voy a engañar: en pocos proyectos he tenido que lidiar con este tema, así que tengo una visión muy teórica del tema :)
• • •
Missing some Tweet in this thread? You can try to
force a refresh
He creado un Google Colab para que puedas acelerar la definición de redirecciones entre urls en archive.org y tu sitemap.
Es GRATIS y lo único que necesitas es una cuenta de Google.
Esta tarea suele ser necesaria en caso de una migración mal hecha. En este caso, tienes que implementar redirecciones entre el histórico (archive.org) y el actual (tu sitemap).
Otras fuentes pueden existir (GA, GSC, …) y las podría agregar si te pueden servir.
Ahora, esta tarea es un coñazo y muchas veces hay una similitud entre la estructura de las URLs del histórico y actuales.
Por lo tanto, podemos intentar acelerar esta tarea con una simple automatización.