Google Leak mai 2024… les petits secrets mal gardés

Google algo Leak - nicoseosem.com

Et boum ce matin, l’annonce simultanée a eu l’effet d’une bombe dans le petit milieu du référencement mondial….aie aie aie Google, toujours si transparent et honnête… ou pas.

En effet, les « kin » du SEO aka Ran Fishkin et Mike King ont révélé quelques-uns des secrets les plus profonds de l’algorithme de recherche de Google disponible ici.

Je vais en mettre en lumière quelques-uns parmi les plus acides.

L’autorité de domaine

Faites ce que je dis pas ce que je fais…

Google a longtemps nié utiliser une métrique spécifique d’autorité de domaine. Et là Surprise ! En interne, ils utilisent, ou en tout cas il existe bel et bien en 2024, quelque chose appelé « siteAuthority ». Et que fait cette métrique ?

Elle évalue la crédibilité et l’autorité d’un domaine, influençant fortement les positions sur le moteur de recherche.

Bien que Google nie publiquement ces métriques, ils semblent les utilisent discrètement pour décider quels sites méritent les meilleures positions.

Évidemment, ce n’est pas l’Authority Score ou le Domain Authority qui est employé… tout simplement car c’est impossible de savoir quels sont les sites pris en compte et ignorés par Google. En d’autres termes, il est impossible de reproduire le Page Rank externe comme Google.

Pourquoi le Domain Autority (Moz), l’Authority Score (Semrush) et le Domain Rating (Ahrefs) peuvent conduire à de mauvaises décisions

L’influence des liens dans les positions en SERP (pages de résultats de moteur de recherche)

Qualité des liens et systèmes de ranking

Les liens jouent un rôle crucial dans le classement des pages. Google utilise des données de clics pour évaluer la qualité des liens, les classant en trois catégories :

  • Faible
  • Moyenne
  • Haute qualité

Les liens de haute qualité influencent positivement le classement.

Des systèmes comme NavBoost et Panda intègrent des données de clics pour ajuster les scores de qualité des sites. Et là….en fait ça contredit les déclarations publiques de Google sur l’utilisation des données de clics pour le ranking en SERP. On avait déjà eu cette déclaration lors du procès antitrust de Google en novembre 2023 :

https://www.justice.gov/d9/2023-11/417508.pdf

 

Valeur des liens et indexation

Contrairement aux « rumeurs »  aka les déclarations de John Mueller, selon lesquelles les liens seraient moins importants, les documents montrent que Google continue d’accorder… au contraire… une grande importance aux liens.

La sourceType des pages indique que la valeur des liens dépend de l’endroit où la page est indexée :

  • Les contenus les plus importants et régulièrement mis à jour sont stockés dans des mémoires flash.
  • Les contenus moins importants sur des disques SSD.
  • Les contenus rarement mis à jour sur des disques durs standards.

Plus la page est dans un tiers élevé, plus le lien est précieux.

Cela explique pourquoi les liens provenant de pages bien classées et de pages d’actualités ont un impact significatif sur les performances de position en SERP.

Autrement dit, si tu obtient un liens depuis une page avec un fort Indice de Visibilité (Sistrix), plus tu as de chances de mieux ranker.

 

Détection du spam de liens

Google dispose de plusieurs métriques pour identifier les pics de spam dans les anchor text, comme le phraseAnchorSpamDays. Cela permet de mesurer la vitesse des liens spam et de neutraliser les attaques de SEO négatif.

 

Historique des changements de liens

Google prend en compte les 20 derniers changements pour une URL donnée lorsqu’il analyse les liens. Cela signifie que pour obtenir un « nouveau départ » aux yeux de Google, il faut changer et faire indexer la page de nombreuses fois. Ce qui peut expliquer le succès ou non d’un domaine expiré complètement remonté à l’identique ou pas.

 

Clics et comportement après le clic

NavBoost et Glue

Google jure que les clics des internautes n’affectent pas les classements. Sauf que dans le document …entrent en scène NavBoost et Glue.

On savait depuis le procès ceci :

Navboost, « l’un des éléments de classement les plus puissants » chez Google, mémorise tous les clics pour toutes les requêtes reçues au cours des 13 derniers mois.
Google – mémorise tous les clics pour toutes les requêtes reçues au cours des 13 mois précédents (citant UPX0190 à -740) . Il faudrait à Bing plus de 17 ans pour générer une quantité similaire de données. Google utilise ensuite un système appelé Glue pour aider à classer les résultats des pages entières. Glue s’appuie également sur d’énormes quantités de données d’utilisateurs.

Source (et déclarations de Pandu Nayak)

Ces systèmes analysent les clics des utilisateurs et le comportement post-clic pour ajuster les positions.

NavBoost observe comment les internautes naviguent dans les résultats de recherche, tandis que Glue considère combien de temps les internautes restent sur une page….et par exemple quel type de clicks sont réalisés. Et même on a aussi des métriques comme la vitesse de chargement des pages et l’interaction des utilisateurs collectées via Chrome qui sont effectivement utilisées pour évaluer la qualité des pages.

Malgré les affirmations de Google, on a la confirmation que des outils exuistent pour évaluer l’engagement des internautes et ça joue un rôle pour le moins… significatif.

 

La Sandbox ou que j’appelle…la période de gestation SEO : HostAge révélé

Une sorte de bizutage sur les nouveaux sites

Sandbox - nicoseosem.com
Sandbox – nicoseosem.com

Beaucoup d’experts SEO soupçonnaient depuis longtemps l’existence d’un effet sandbox ou gestation SEO. Période pendant laquelle les nouveaux sites peinent à obtenir de la visibilité.

Les documents divulgués confirment cette observation Sistrix. Ils montrent comment Google utilise un attribut appelé « hostAge » pour surveiller et parfois pénaliser les nouveaux sites. Cette période de probation est censée éliminer les sites potentiellement spammy mais ce qui est embettant c’est qu’elle piège souvent les sites légitimes dans ses filets.

 

Analyse détaillée des données et signaux

On a aussi un document sympa qui offre une analyse détaillée des différentes données et signaux utilisés pour améliorer les performances SEO, allant des scores de spam et des classements PageRank aux métadonnées et informations de document.

Spam et scores de spam

L’univers du SEO se trouve souvent confronté aux affres du contenu indésirable, nécessitant des outils précis pour le détecter et le neutraliser.

Par exemple, le uacSpamScore évalue rigoureusement le niveau de spam sur une échelle de 0 à 127, une donnée cruciale pour préserver la qualité d’un site. Les signaux comme spamMuppetSignals jouent un rôle essentiel en identifiant les sites piratés, évitant ainsi que des contenus nuisibles n’envahissent la toile.

Avec des outils tels que trendspamScore, on peut quantifier les requêtes liées au spam de tendance, tandis que les scores ScaledSpamScoreYoram et ScaledSpamScoreEric affinent les filtres pour une détection plus précise.

L’utilisation de l’algorithme IsAnchorBayesSpam, qui repose sur des méthodes bayésiennes, apporte une précision chirurgicale à l’identification du spam.

Enfin, le spambrainTotalDocSpamScore compile l’ensemble des scores de spam d’un document, offrant une vue d’ensemble indispensable pour garantir la qualité du contenu.

 

PageRank et classements

Dans l’univers algorithmique du SEO,le PageRank et le ranking en page de recherche sur Google déterminent la visibilité et la crédibilité des pages web. Les variantes expérimentales de PageRank telles que pagerank1, pagerank2 et pagerank0 explorent divers aspects de l’algorithme pour une optimisation continue.

Le homepagePagerankNs mesure la popularité de la page d’accueil, un indicateur clé pour accroître la visibilité sur les moteurs de recherche.

Les classements d’indépendance comme ScaledIndyRank et ScaledExptIndyRank2 évaluent l’originalité des sources, garantissant que les contenus authentiques sont favorisés.

La normalisation des rangs par langue, grâce à scaledSelectionTierRank, assure une évaluation équitable des contenus multilingues.

Ces métriques sont fondamentales pour déterminer quelles pages apparaissent en tête des résultats de recherche, influençant ainsi directement le trafic organique.

Exemple d’application : Tu peux améliorer la visibilité de ton blog de voyage en optimisant sa popularité en publiant des contenus originaux et très recherchés. Vérifie l’originalité de tes sources et assure-toi qu’elles ne sont pas surutilisées par d’autres sites.

 

Langue et Localisation

La maîtrise des langues et des localisations est indispensable pour adapter les contenus à leur contexte culturel et géographique.

videoLanguage identifie automatiquement la langue audio des vidéos, simplifiant le tri et la recherche de contenus.

Les codes de langue fournis par rosettaLanguages et s3AudioLanguage pour les documents et fichiers audio, respectivement, sont essentiels pour une organisation efficace. localizedCluster regroupe les contenus selon leur localisation géographique, et countryInfo précise le pays d’origine du document, des informations cruciales pour adapter le SEO à des audiences spécifiques.

watchpageLanguageResult et saftLanguageInt classent les documents par langue principale, améliorant ainsi la pertinence des résultats de recherche.

Exemple d’application : Adapte le contenu de ton site de vente en ligne aux différentes langues et pays en utilisant l’identification automatique de la langue audio et les informations sur le pays d’origine. Cela te permet de proposer des descriptions de produits et des supports marketing dans la langue et le contexte culturel de chaque marché cible, augmentant ainsi la pertinence et les ventes.

 

Données et signaux

Les données et signaux sont la clé de voûte pour analyser et classer efficacement les documents web. phildata et kaltixdata représentent des données spécifiques, souvent internes, qui alimentent les algorithmes d’indexation.

webrefEntities liste les entités associées à un document, facilitant la catégorisation.

Les annotations comme knexAnnotation et v2KnexAnnotation améliorent l’indexation, rendant les contenus plus facilement trouvables.

Les données de biais, biasingdata et biasingdata2, permettent de corriger ou ajuster les résultats de recherche pour une plus grande précision.

Enfin, nsrDataProto et nsrSitechunk offrent des signaux au niveau du site, aidant à évaluer la qualité et la pertinence globales des sites web.

Exemple d’application : Utilise des annotations pour structurer les articles de ton site d’actualités, ça rendra les contenus plus facilement trouvables par les moteurs de recherche. Intègre les entités associées au site pour linker les articles à des entités reconnues : ça améliorera leur position en SERP…en plus de la crédibilité.

 

Métadonnées et informations de document

Les métadonnées et informations sur les documents sont indispensables pour une organisation et une compréhension approfondie des contenus web.

datesInfo et semanticDate fournissent des informations sur les dates de création et de mise à jour, essentielles pour évaluer la fraîcheur des contenus. lastSignificantUpdate et lastSignificantUpdateInfo indiquent les dernières mises à jour importantes, permettant de suivre l’évolution des documents.

queriesForWhichOfficial identifie les requêtes pour lesquelles un document est considéré comme officiel, renforçant sa crédibilité.

domainAge et hostAge fournissent des informations sur l’ancienneté du domaine et de l’hôte, des indicateurs de fiabilité. Ces métadonnées structurent et priorisent les informations, facilitant leur découverte et leur utilisation par les moteurs de recherche.

Exemple d’application : Maintiens ton site éducatif à jour en utilisant les informations sur les dernières mises à jour pour suivre et afficher les dernières modifications du site. Indique dans la mesure du possible la date de création des contenus et fais en sorte que les informations restent pertinentes et fiables pour les étudiants et enseignants.

 

Données techniques et de performance

Les données techniques et de performance touchent au cœur de l’efficacité et de la stabilité des contenus en ligne.

Event et extraData offrent des informations de débogage cruciales pour l’amélioration continue des systèmes internes.

crawlerIdProto et launchAppInfo fournissent des contextes détaillés sur les identifiants des robots d’exploration et les lancements d’applications, aidant à optimiser les processus.

Les signaux de fireflySiteSignal et spambrainDomainSitechunkData évaluent la qualité des sites web.

coldAnomalyDetection détecte les anomalies, renforçant la stabilité des infrastructures. Ces données sont essentielles pour maintenir des performances optimales et une expérience utilisateur fluide.

Exemple d’application : Optimise le temps de chargement et la stabilité de ton site e-commerce en utilisant des outils de débogage pour identifier et corriger les bugs. Cela te permettra d’améliorer l’expérience d’achat de tes clients et de réduire les taux d’abandon de panier.

 

Données multimédia

Les données multimédia englobent les informations relatives aux images, vidéos et autres contenus audiovisuels. imagedata et videodata fournissent des métadonnées spécifiques pour les fichiers, facilitant leur gestion et leur recherche.

videoCorpusDocid et s3AudioLanguage attribuent des identifiants et des langues principales aux fichiers multimédias, assurant une organisation efficace.

liveResultsData offre des informations sur les résultats en direct, pertinent pour les événements temporels.

videoLanguage et watchpageLanguageResult classent les contenus vidéo par langue, permettant une meilleure personnalisation des résultats. Ces données sont cruciales pour gérer et exploiter efficacement les contenus multimédias.

Exemple d’application :

Insère des vidéos et d’ailleurs améliore le SEO des vidéos de ton site de tutoriels en ligne en utilisant des métadonnées spécifiques. N’oublie pas d’organiser et décrire les contenus de manière précise. En plus, ça rend les vidéos plus facilement trouvables par les internautes et les moteurs de recherche.

 

Données diverses

Les données diverses couvrent des informations variées essentielles à l’enrichissement des bases de données.

BookCitationData comprend des données de citation de livres, cruciales pour les références académiques.

travelGoodSitesInfo et productSitesInfo fournissent des informations sur les meilleurs sites de voyage et de produits, aidant à orienter les internautes.

oceandata et geodata contiennent des informations géographiques et océaniques, utiles pour des applications spécialisées.

GroupsData offre des données sur les groupes, pertinentes pour les réseaux sociaux. Ces informations diversifiées enrichissent les bases de données, améliorant la pertinence des services en ligne.

Exemple d’application : Enrichis les ressources de ton site de recherche académique en ajoutant des informations géographiques pertinentes. Cela facilite le travail de ceux qui recherchent en leur offrant des ressources complètes et précises.

 

Quelques grandes leçons que je partage avec Ran et Mike

Le branding

C’était d’ailleurs le thème de ma dernière conférence lors du SEOCamp ‘us Paris 2024 : en lisant les articles complets et une partie du leak, on se rend bien compte que Google dispose de nombreux moyens pour identifier, trier, classer et filtrer les entités (un gros sujet), notamment les marques

On a deja clairement observé à travers les updates (au moins depuis mai 2022) Et cette tendance continu,…en particulier à la faveur des grandes marques. Pour améliorer les positions en SERPs et ton trafic organique, je le répète encore : construis une marque notable, populaire et bien reconnue… en dehors de Google (check ma conférence pour savoir comment faire).

 

E-E-A-T : Mythe ou réalité ?

L’expérience, l’expertise, l’autorité et la confiance (aka fiabilité ) (le fameux E-E-A-T) sont des concepts souvent vantés en SEO, mais leur importance réelle reste floue.

On a quand même un modèle appelé RepositoryWebrefEntityJoin qui aide Google à rassembler toutes les informations sur une entité spécifique, comme une personne ou un lieu.

Il utilise des identifiants uniques pour reconnaître l’entité et recueille même des données qui proviennent de différentes sources: Ce, dans le but de mieux comprendre et décrire cette entité. Donc ce système permet de regrouper des noms, des pages web associées et d’autres détails importants pour offrir une vue complète de l’entité.

Et tu le vois dans le knowledge graph.

 

Et ça, tous les indices nous laissent penser que ça peut avoir un impact sur le ranking. C’est incertain ok mais quand même… je suis partagé (est ce de la comm’ type propagande ou des éléments substantiels ?) en tous cas ça existe formellement.

 

L’intention des internautes comme facteur

Back to basic… les titres de page restent importants, mais les intentions de navigation des internautes sont devenues des facteurs de ranking puissants.

Si un groupe d’internautes montre une forte préférence pour un certain résultat, Google ajustera les SERPs en conséquence, et prendra le dessus sur tous les signaux SEO classiques comme les liens et le contenu optimisé.

Vous vous souvenez des tests de SEOs qui demandaient de cliquer sur tel ou tel résultats…et d’un coup…la position changeait… et ben voilà on a la confirmation dans le leak.

Les systèmes comme NavBoost exploitent ces données pour influencer les résultats en SERPs significativement.

 

Paramètres clés pour optimiser votre stratégie SEO suite au Google leak

Pour maximiser l’efficacité de ta stratégie SEO, on doit avoir en tête certains paramètres clés révélés par le leak Google. Voici un échantillon complémetaire de paramètres et de leur impact potentiel sur ton site.

Score d’effort de contenu pour le contenu généré par IA

Avec contentEffort, Google tente de déterminer l’effort fourni dans la création de contenu (je dis bien « tente » parce qu’on est pas mal à être déçu). Selon la définition, c’est pas clair si tout le contenu est évalué de cette manière par un modèle de langage (LLM) ou bien que celui avec soupçon de génération via IA.

 

Mesures spécifiques de l’effort pour le contenu généré par les utilisateurs (UGC)

Depuis longtemps, je prone dans mes différentes interventions de tirer parti du contenu généré par les utilisateurs (UGC en anglais). C’est une manière d’ajouter du contenu sur les pages de ton site (quasi gratuitement) et d’améliorer leur pertinence et leur fraîcheur.

Le paramètre ugcDiscussionEffortScore suggère que Google mesure la qualité de ce contenu séparément du contenu principal. Lorsqu’on travaille avec des marketplaces et des sites de type Forum  ou basés sur l’UGC, nous mettons en place de nombreuses stratégies de contenu (et on pourra faire un article dédié) pour inciter les utilisateurs à s’exprimer de manière spécifique. Cette approche, si on a une modération rigoureuse du contenu pourrait améliorer la visibilité et les performances de ce type de sites.

 

La signification des mises à jour de pages est mesurée

Avec le paramètre LastSignificanceUpdate, l’importance d’une mise à jour de page semble influencer la fréquence de crawl et d’indexation par Google. Auparavant, il suffisait de changer les dates sur votre page pour signaler de la fraîcheur à Google. Désormais, cette fonctionnalité suggère que Google attend des mises à jour plus significatives des pages.

 

Les backlinks toxiques existent réellement

Dans le même document où nous avons trouvé les paramètres anchorCount et penguinPenalty, il est révélé que les « backlinks toxiques » ne sont pas qu’un concept utilisé pour vendre des SAAS SEO comme Sistrix. Il existe un paramètre badbacklinksPenalized associée aux documents, confirmant leur existence.

 

Les mentions d’entités

Les documents montrent que les ingé de la firme californiennes ont pensés à des mécanismes élaborés pour déchiffrer les mentions et même celle principale avec focusEntity par exemple, qu’elles soient implicites ou explicites, composées, ou encore à travers un scoring de confiance et une évaluation précise de leur exactitude. Cela illustre une compréhension textuelle très avancée, permettant une analyse et une interprétation fines des documents.

L’accent est mis sur l’exactitude des mentions, les scores de confiance et la pertinence des entités. Du coup, ça nous indique que tes stratégies SEO doivent impérativement se focaliser sur la création de contenu autoritatif, factuel et contextuellement pertinent. Venga…il te faut garantir la précision et la pertinence des mentions,…et tu pourra potentiellement améliorer les positions en SERP de ton contenu.

Comprends par là que beaucoup de SEO vont maientenant prioriser la production de contenu certes de de haute qualité mais aussi l’axé sur de forte autorité. POur ça…recherche et intègre des entités et des sujets pertinents qui font sens avec ton audience et correspondent à l’intention de recherche (celle de Google, hein, pas celle qui date de l’an 2000).

 

Gobi / GobiSite et BoostFactor

Dans ce document, on a droit au paramètre boostFactor …et c’est quoi ? Et ben un c’est comme un multiplicateur pour renforcer la visibilité d’un site dans les résultats de recherche, ce qui signifie qu’un site bénéficiant d’un boost élevé a plus de chances d’apparaître en haut des résultats pour les requêtes pertinentes, augmentant ainsi drastiquement le trafic organique.

Un autre parametre qui a marqué la communauté, c’est le gobiSite . En interne, Google indique qu’un « gobi site » est un site qui mérite un traitement préférentiel pour certaines catégories de requêtes, comme amazon.com pour les recherches de type « téléviseurs haute définition » , ce qui permet à ce site d’être mis en avant par rapport à d’autres pour cette catégorie spécifique. Identifier si ton site peut être considéré comme un « gobi site » et pour quelles requêtes peut optimiser ta stratégie de contenu pour bénéficier de ce boost.

 

Topicality / TopicalityScore / TopicalityWeight

La topicalité, c’est la façon dont le grand G parle de la pertinence. Depuis le procès Antitrust on savait, qu’en gros, q’un parametre permettait de savoir  à quel point un contenu indexable colle au sujet de la requête de l’internaute. Là, on a des mentions de « Topicality« , avec des références spécifiques à un score de topicalité (TopicalityScore) et un poids de topicalité (TopicalityWeight), utilisés pour qualifier les liens pointant vers une URL.

 

La guirlande de pénalité algorithmiques

Déclassements qu’il disent !… tu parles ! C’est une condamnation si ton site dépend du trafic Google.

Avant de terminer, un des autres points interessants dans les documents filtrés mentionnent une série de « déclassements algorithmiques« .

C’est un modèle appellé CompressedQualitySignals qui regroupe divers signaux de qualité pour les pages web. Il utilise des indicateurs pour évaluer la qualité des pages, comme des scores de promotion ou de dégradation de l’autorité et des critiques de produits, ainsi que des signaux expérimentaux pour tester de nouvelles composantes de qualité.

Parmi les pénalités qui cible des aspects spécifiques. Voici quelques unes :

  • Anchor Mismatch : lorsqu’un lien ne correspond pas au site cible : Pénalisation. Par exemple, si l’anchor text dit « chiens mignons » mais que la page liée parle de « réparation de voitures », il y a un décalage.

 

  • SERP Demotion : Pénalité basée sur des facteurs observés dans les SERP, suggérant une possible insatisfaction des internautes. Du genre pour un site de recettes expiré qui auparavant apparaissait en première page des résultats de recherche pour « meilleures recettes de gâteaux au chocolat », mais qui est remonté sur autre thématique et se retrouve soudainement relégué en troisième page. Cela peut se produire si Google détecte que le site utilise des pratiques trompeuses, comme du contenu dupliqué, ou si la qualité globale du contenu a diminué, entraînant une expérience utilisateur négative.

 

  • Nav Demotion : Une pénalité appliquée aux pages présentant de mauvaises pratiques de navigation ou des problèmes d’expérience utilisateur. Par exemple des éléments tels qu’une mauvaise structure de navigation, des menus déroutants ou une architecture de site compliquée, qui peuvent nuire à l’expérience utilisateur.

 

  • Exact Match Domains Demotion : Depuis 2012, les domaines à correspondance exacte ne sont plus aussi valorisés qu’auparavant. D’ailleurs, j’en ai souffert en me faisant plomber mon EMD de gateaux de bonbon en 2012 :-(

 

  • Product Review Demotion : Genre des avis qui manquent de détails, qui semblent biaisées ou non authentiques, ou qui ne fournissent pas de valeur réelle aux internautes.

 

  • Location Demotions : Par exemple, si un site web ne fournit pas des informations correctes sur les emplacements physiques ou si les données de localisation sont trompeuses.

 

  • Scamness : Cette pénalisation concerne les sites web identifiés comme potentiellement frauduleux ou trompeurs.

 

  • Baby Panda Demotion, sa version V2, VLQ (Very Low Quality) NSR et Low Quality : pour du conenu de faible qualité.

 

Ok bon pour éviter ces pénalisations et améliorer nos rankings en résultats de recherche Google, toujours la même histoire : il faut se concentrer sur la création de contenu de haute qualité, une bonne expérience utilisateur, des informations précises et authentiques.

 

Derrière le rideau de Google

À la lumière des révélations fracassantes de Ran Fishkin et Mike King, il devient évident que Google orchestre ses algorithmes avec une opacité maîtrisée, bien loin de la transparence proclamée. Les métriques d’autorité dissimulées, l’utilisation non avouée des données de Chrome, et les manipulations via NavBoost et Glue dessinent un paysage du SEO où la dissimulation et la contradiction sont reines.

Pour les SEO et les propriétaires de sites, ces informations révèlent des dynamiques cachées essentielles à comprendre. La création de contenu de qualité, l’expérience utilisateur optimisée, et une vigilance constante sur les pratiques de Google deviennent plus cruciales que jamais. La route vers le sommet des SERPs n’est pas une ligne droite, mais un labyrinthe où chaque tournant est dicté par des algorithmes secrets et des métriques invisibles.

Ainsi, la prochaine fois que tu travailles sur l’optimisation de ton site, souviens toi : la réalité de Google est bien plus complexe que ce qu’elle laisse transparaître. Naviguer avec succès dans cet écosystème exige une compréhension profonde des forces cachées qui influencent les positions en SERPs. Guides toi de l’Indice de Visibilité comme seul phare pour gérer votre marque et non plus seulement ton site. Gardes tes yeux ouverts et adaptes tes stratégies en conséquence, car ce sont ces subtilités qui pourraient bien être la clé de votre réussite.

 

La personne à la source du leak Erfan Azimi explique ses motivations :

 

Commentaire en off sur le lanceur d’alerte :

Ce qu’il dit, c’est faire du branding 💥, obtenir un grand nombre de clics et de backlinks de confiance. Nada de spam, surtout sur les ancres. 🚀
Et surtout => Faites des choses en dehors de Google Search 🔍
Encore une fois, ça rejoint ce que je pense depuis un moment avec les pratiques du PR, des notifications push, des newsletters,…

 

Commentaire sur ce que j’ai lu et entendu de la communauté SEO suite au leak Google :

  • « On savait déjà tout ça » et « Rien de vraiment nouveau« :

Le SEO progresse constamment, et bien que les documents divulgués contiennent des informations largement inconnues, ils apportent des détails précieux.

Outre l’humilité… attention aux biais de confirmation, de familiarité et de conservatisme qui peuvent nous enfermer sans nous en rendre compte.

 

  • « Il faut se concentrer sur client et pas sur l’algorithme«  :

Alors oui en marketing et SEO, privilégies toujours les besoins de tes clients plutôt que de te focaliser uniquement sur les algorithmes. C’est vrai que comprendre Google en profondeur permet de mieux servir tes clients (et puis perso j’adore ça), mais, encore une fois, restons vigilant face aux biais cognitifs comme le biais de confirmation qui peuvent limiter votre stratégie.

 

 

Outils pour s’en sortir avec le leak

Mon ami et l’un des meilleurs SEO d’Espagne, Natzir Turrado, a développé une carte interactive révolutionnaire. Elle relie les documents entre eux d’une manière inédite et ultra-efficace. Découvrez cette innovation ici :

https://ranking-features.streamlit.app/

 

Autre application Streamlit ultra-performante pour interroger les attributs présents dans les documents de manière personnalisée et obtenir des rapports détaillés : Lien

 

Si vous en connaissez d’autre ? M’écrire

Ce type d'article par mail ?

Ne perds plus de temps, ajoute ton mail pour recevoir la newsletter

¡Pas de spam! => política de privacidad pour plus d'infos.

SEO / Online Marketing Manager France & España en NicoSEOsem | +34 644 350 730 - +33 7 81 51 86 45 | Web

After gaining experience in international trade, I have embarked on a diverse journey through digital marketing roles. This has included providing support for a classified site, working in SEO, handling email marketing for a SaaS company, steering online marketing for an E-commerce business, and serving as the CMO for a startup, before eventually becoming the director of online marketing for a marketing agency. This extensive experience led me to start my own venture.

Since 2011, I've been an SEO, SEM, and Inbound Marketing consultant based in Barcelona. My mission is to assist French and Spanish companies in transcending the barriers presented by the Pyrenean mountains to achieve success in their markets.

Compartir

Facebook
Twitter
LinkedIn