Prédire le ranking : C’est facile ?

Il y a quelques semaines une agence SEO s’est vantée d’avoir craqué l’algo de ranking de Google avec un taux de réussite de 92%. Grâce au reverse engineering, ils parviendraient à déterminer si une page peut ranker.

Nous avons trop peu d’informations pour déterminer si c’était un coup de buzz… Chacun pourra se faire son avis.

Afin d’en savoir plus faisons le tour des problématiques rencontrées dans ce type de projets.

Qu’est ce que le reverse engineering ?

Le reverse engineering est un processus qui consiste à analyser un produit ou un système pour en comprendre le fonctionnement et le reproduire.

Dans notre cas, nous allons analyser les résultats de recherche sur une grande échelle pour essayer de reproduire la formule ‘magique’ de Google.

Vous vous en doutez, cette exercice est tout sauf simple pour un moteur de recherche aussi complexe que Google, il y a énormément de paramètres à prendre en compte.

Les différentes problématiques

Sur quels mots clés se baser

Notre algorithme va avoir besoin de beaucoup de données pour s’assurer qu’on va prédire des résultats fiables. On sait que Google va pondérer les facteurs de ranking d’une manière différentes en fonction de la typologie de requêtes.

Par exemple, la dimension sémantique est moins importante sur une fiche produit ou une recette de cuisine que sur un article. La raison est simple, toutes les recettes de gâteau au chocolat comme toutes les fiches produits pour la PS5 se ressemblent donc ce n’est pas un critère discriminant qui permet à Google de choisir quel est le meilleur résultat.

A l’inverse la sémantique d’un article permet à Google de comprendre si l’article répond à l’intention d’un internaute.

Il va donc falloir isoler différents pools de requêtes pour effectuer un reverse engineering efficace.

Récupérer les résultats des pages de résultats

Une fois qu’on a identifié les mots clés, il faut collecter les données de ranking.

A ce stade, plusieurs questions se posent :

  • Est ce que je récupère les positions sur la première page ? (plus rapide et moins couteux)
  • Est ce que je vais jusqu’au top 100 (plus long mais plus complet)

Tout dépend de la question à laquelle vous voulez répondre :

  • Que faut-il pour ranker en page 1 ?
  • Que faut-il pour ranker dans le top 3 ?
  • Que faut-il pour être premier sur Google ?

Perso j’aime bien les 2 dernières car ce sont les positions qui apportent le plus de trafic.

Pour ce type de taches, j’aime beaucoup l’outil dataForSEO.

Quels metrics sont utilisées par Google ?

Encore une fois la réponse n’est pas simple. Google annonce avoir plus de 200 critères pour calculer le ranking des pages.

Il faut donc les identifier sans faire d’erreurs, si vous oubliez des critères importants, les résultats de l’algorithme ne seront pas fiables.

Voici quelques critères qui semblent pertinents :

  • Le titre est il optimisé ?
  • L’article est il pertinent vis à vis de la requête
  • La page est-elle populaire ? (sur le site / sur le web)
  • Le site est-il populaire ? (sur le site / sur le web)
  • Est-ce une recette / un article / un produit,… ?
  • L’auteur est-il un expert (critère EAT)
  • La page est-elle récente ?
  • La page est-elle mobile friendly ?
  • Les core web vitals sont il respectés ?
  • ….

Vous le voyez, la liste est longue…

Et pour chaque critère, il va falloir définir la manière de le calculer. Comment déterminez vous qu’un titre est optimisé ? ce n’est pas si simple…

Comment collecter ces metrics ?

Là aussi la réponse n’est pas triviale, car il va falloir essayer de collecter les mêmes metrics que Google pour pouvoir simuler les mêmes résultats.

Pour partie des critères, il existe des outils marché qui collectent des données. Mais ces outils n’ont pas la puissance de calcul de Google (qui possède beaucoup de ressources pour crawler tout le web).

Il va donc falloir choisir les bons outils pour avoir la donnée la plus proche de Google.

A vous de choisir entre Majestic, Ahref, Semrush et Babbar pour trouver les indicateurs qui vous semblent les plus proches de ce que calcule Google en terme de popularité.

Idem côté sémantique, il existe beaucoup d’outils pour scorer les pages en fonction d’un mot clé.

Cela va avoir un coût car les accès API des outils peuvent parfois être onéreux et les appels prennent du temps.

Des metrics propres à Google

Pour certains sujets, Google calcule ses propres metrics. Dernièrement Google a lancé en langue anglaise, le HCU (helpfull content update) qui lui permet de détecter les pages qui ne seraient pas crées pour les internautes . Actuellement aucun outil n’est en mesure de calculer un indicateur similaire.

De plus, Google connait les taux de clics et taux de retour sur la SERP, ce que personne d’autre n’est en mesure de faire.

Nous serons donc aveugles sur certains critères, ce qui va rendre moins fiable les algos.

Les metrics de maillage interne

Ici, pas de complexité techniques. les crawlers sont capables d’identifier tous les liens internes qui pointent vers une pages. Mais ce qui est compliqué c’est d’aller crawler tous les sites concurrents (car certains font plusieurs millions de pages. C’est long…

Beaucoup de pages rankent sans backlinks, dans ces cas, le maillage interne va être le seul signal de popularité d’une page. Cette info est donc très importante.

L’algo de Google évolue régulièrement

Le reverse engineering va fonctionner tant que l’algo n’évolue pas ou pas trop. Dès que l’algo évolue significativement, il faudra refaire tout le travail pour actualiser les données et refaire tourner nos algorithme.

A minima, si les mots clés qui vous intéressent sont impacté par les core update, il faudra relancer tous les traitements plusieurs fois par an pour chaque verticale.

En conclusion

Simuler Google est un travail complexe. Techniquement les algos de machine learning nous sont très utiles pour analyser les données. C’est un gros pas en avant.

Mais il reste un gros travail à accomplir en amont pour identifier les bons facteurs et récupérer les bonnes données.

En tout cas, on n’a pas forcément besoin de 92% de taux de réussite pour pouvoir exploiter des résultats qui nous permettront d’améliorer notre stratégie de référencement grâce à la data.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *