Para evitar que un usuario pueda consultar el artículo sin pagar igualmente :
1. Se suele impedir el uso del cache con el noarchive en la meta robots 2. Únicamente Googlebot (verificado) puede acceder al contenido completo
Para comprobar el segundo punto, puedes acceder a un contenido bloqueado usando search.google.com/test/rich-resu… y verás que puedes ver todo.
Es une forma lícita de hacer cloaking realmente.
Esa son las directrices oficiales. Ahora también puedes implementar algo ligeramente diferente.
En una implementación clásica, el contenido premium no estará en el código fuente si no eres Google.
En otros portales:
1. El contenido se carga completamente, como si fuese gratis 2. Mediante el valor de un cookie, una solicitud POST se hace, devolviendo una orden que muestra el muro de pago al usuario
Google lo ve como un contenido gratis.
Esta implementación es menos estándar pero, desde mi perspectiva, funciona muy bien. Y no cambia nada para el usuario.
Eso sí, la implementación es más compleja pero supongo que hay un motivo :)
Para preguntas avanzadas sobre los muros de pago, creo que @ClaraSoteras y @mazariegos_seo te podrán ayudar más.
No te voy a engañar: en pocos proyectos he tenido que lidiar con este tema, así que tengo una visión muy teórica del tema :)
• • •
Missing some Tweet in this thread? You can try to
force a refresh
Let's go through the most common formulas you need to master to work quicker.
Most of them can also be used in Excel, but not all of them.
1. VLOOKUP
THE formula you have to master because it allows you to merge data from different tables. Very useful to combine Search Console and Analytics data, for instance.
You have to master it.
2. FILTER
I've explained everything about this formula in a separate thread:
🕵️ How can you spy on a competitor's content strategy? 🕵️
Your strategy must never be a simple pale copy of what others are doing, but it's always a good idea to know what they are up to.
Let me show you, with a real example, how you can generate insights quickly.
Let's assume we're working in the travel industry and one of our competitors is Skyscanner.
We want to understand what they are doing on their blog and generate some insights based on the data we have at our disposal.
First step: get an exhaustive list of their URLs
This could be done through a crawl, but I'd rather get the list from a sitemap. Not always doable, but in this case, it was easy to find what I was looking for.
Content rehydration is a process that occurs when a website, built with a JavaScript framework, such as Angular or React, dynamically updates the content on a page without requiring a full-page refresh.
Why using rehydration instead of relying only on SSR? It is faster!
What is the issue with content rehydration?
It will add a script to the raw response sent by your server with all the required code to make the application dynamic. Out-of-the-box, this script can easily represent more than 90% of the total HTML size.