[THREAD] 15 ans de #SEO : Quand je sors des sentiers battus !
Pratiquant le White Hat depuis mes débuts, je reste curieux du Black même si je ne fais prendre aucun risque à mes clients. Il m’arrive, toutefois, de sortir des sentiers battus.🤫
1) Acheter du trafic pour remonter sur la marque : lorsqu’un de mes clients se lance dans un pays, j’achète des clics géolocalisés, faisant la recherche sur Google locale et cliquant sur l’url qu’on veut faire remonter.
2) #Offuscation de liens : j’ai abusé de cette Technique pendant 15 ans, j’utilise, aujourd’hui, d’autres stratégies pour la réduction de liens doublons ou non contextuels.
3) #Cloaking des pages : l’une des alternatives à l’offuscation est utilisée par de très gros E-Commerçant depuis des années sans avoir été sanctionné (ex: Cdiscount). A priori, pas de risque, car aucun contenu n’est caché aux moteurs de recherche.
4) Acheter du #SEA : pour faire remonter une marque sur ses expressions brandées en SEO, l’achat de mots clés fonctionne ! Mis en place une dizaine de fois lors du lancement de nouvelle marque qui remontait mal sur leur marque !
5) Forcer l’indexation d’un site grâce à un autre site : l’une des astuces partagées au #SEOCAMPUS 2022 : En publiant le sitemap de son client sur 1 GSC d’un autre site sans souci d’indexation. C’est long, mais efficace et surtout gratuit.
6) Optimiser la pagination : pour l’un de nos clients dans l’immo, nous avons optimisé la 1ère page de pagination de biens localisés sur “Achat maison”, la 2 sur “Maison à vendre”, la 3 “Maison en vente”, la 4 sur “Acheter maison”. Cela fonctionne bien sur la longue traîne ;)
7) #Hacker l’inscription dans #GoogleMap : Pour aider un entrepreneur (pote), on a créé 50 profils Gmap en utilisant l'adresse des maisons rénovées.
8) Après une #pénalité#Pingouin : Pour un gros site de prêt à porter qui avait abusé des ancres optimisées : nettoyage inefficace, mais achat de 3 gros liens (TF 60) thématique et le site is back !
9) Travailler des expressions à l’opposé de la strat du client : Pour l’un de nos clients historiques, Louis Vuitton, nous avons créé une page Louis Vuitton “pas cher” pour passer devant les sites de contrefaçons. Allez voir la page !
10) #Cloaking pour les pubs : Une des solutions pour présenter un site plus rapide est de présenter, à googlebot seulement, une version du site sans les pubs. Utile dans le passé, avec la rendition que fait le moteur, le PSI est moins impacté.
𝟏𝟏) 𝐂𝐥𝐨𝐚𝐤𝐢𝐧𝐠 𝐩𝐨𝐮𝐫 𝐥𝐞 𝐏𝐞𝐫𝐟 : Dédié un serveur au passage des robots est une solution là aussi intéressante pour gagner des perfs. Il faut juste vérifier que les mises en prod sont aussi dupliquées sur le serveur dédié aux moteurs.
• • •
Missing some Tweet in this thread? You can try to
force a refresh
C’est l’1 des formations que je fais aux nouveaux arrivants qui nous rejoignent chez PeaAce. L’objectif est de comprendre ce qui ne va pas sur un site en qqles minutes
𝐓𝐲𝐩𝐞 𝐝𝐞 𝐬𝐢𝐭𝐞 : #Ecommerce, #Vitrine, #Média, #Classified,... Les principes #SEO sont les mêmes, mais on ne travaille pas les choses de la même manière en fonction de la typologie de site. Naviguer sur le site pour comprendre le type et le modèle économique : 2 min
𝐖𝐚𝐩𝐩𝐚𝐥𝐲𝐳𝐞𝐫 : j’utilise ce plugin pour comprendre la technologie front du site. Si je découvre un framework JS : Je teste la rendition de la page côté serveur pour Google avec le plugin View Rendered Source : 2 min
❅ [𝐓𝐡𝐫𝐞𝐚𝐝] 𝟏𝟓 𝐚𝐧𝐬 𝐝’𝐞𝐱𝐩𝐞́𝐫𝐢𝐞𝐧𝐜𝐞 𝐝𝐚𝐧𝐬 𝐥𝐞𝐬 #𝐦𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧𝐬/𝐂𝐡𝐠𝐭 𝐝𝐞 #𝐝𝐨𝐦𝐚𝐢𝐧𝐞:
La migration de site, changement de #NDD, de CMS ou de serveurs est source de stress. L’objectif est a minima la visibilité d'avant. Voici mes 15 feedbacks
1) 𝐂𝐨𝐦𝐩𝐚𝐫𝐞𝐫 𝐥𝐚 𝐩𝐫𝐨𝐝 𝐞𝐭 𝐥𝐚 𝐩𝐫𝐞𝐩𝐫𝐨𝐝 : : avant la migration, faites deux crawls - l’un de la version future (en #preprod) et l’autre de la version prod actuelle. Vérifiez le nombre de pages, le code source, les balises,...
2) 𝐏𝐫𝐞́𝐯𝐞𝐧𝐢𝐫 𝐆𝐨𝐨𝐠𝐥𝐞 𝐝𝐮 𝐜𝐡𝐚𝐧𝐠𝐞𝐦𝐞𝐧𝐭 𝐝𝐞 𝐝𝐨𝐦𝐚𝐢𝐧𝐞: quand vous changez de NDD, vous pouvez prévenir Google de ce changement directement dans la Search Console. Ce qui montre à GG que le propriétaire reste le même. Pensez-y !
[THREAD] N’ayez pas peur de migrer vers #Shopify !
Un #CMS qui a fortement évolué ces dernières années en renforçant son équipe de senior #SEO. Le produit est encore tant décrié par les #agences SEO. Voici mon retour d'expérience !
Arguments principaux des clients : Solution simple, complète et pas chère : Sans développement, le CMS propose beaucoup de solutions natives ou avec des modules complémentaires paramétrables sans coder.
Équipe restreinte : Un #webmaster suffit à faire 95% des actions techniques. Plus besoin d’énorme équipe IT pour faire évoluer la solution et gagner en visibilité organique.
𝟏𝟓 𝐚𝐧𝐬 de SEO international : 𝐯𝐨𝐢𝐜𝐢 𝐦𝐞𝐬 15 𝐞𝐧𝐬𝐞𝐢𝐠𝐧𝐞𝐦𝐞𝐧𝐭𝐬
Après avoir bossé pour plusieurs boîtes internationales, nous avons mis en place bon nombre de recommandations SEO pour générer de la visibilité au sein de différents pays.
Ce sujet n’est pas simple, car Google ne comprend pas toujours les versions langue/pays et peut classer un site dans la mauvaise localité. Voici la liste des enseignements que nous avons retenus
1) Trafic acheté : Pour que Google considère votre site récemment lancé dans une version linguistique, il faut acheter du trafic SEO en provenance de la localité pour lancer un signal positif à Google. Pour ça RDV sur fiverr.com ;)
[THREAD] 15 ans d’analyse de logs : voici mes enseignements
L’analyse de logs est encore méconnue ou peu utilisée. Pourtant, elle vous offre une vision complète de l’exploration de votre site par le moteur de recherche. Voici mes 15 enseignements après 15 ans d’expériences !
1) Supprimer les pages orphelines (pages détachées du site) n’améliore pas le budget de crawl et ne permet pas de rediriger Googlebot vers vos pages stratégiques. Le temps de chargement, la MAJ de la page, le PR interne ou externe sont les KPIS qui favorisent le crawl;
2) Une balise noindex sur la pagination ou une balise canonical vers la première page de liste flingue le crawl des produits/annonces qui y sont listés. Autrement dit, avec ces balises, vous limitez le crawl de vos pages produits/annonces.