Grosse nouveauté hier dans la search console, Google a refondu et enrichi le rapport de suivi de l’exploration.

Où trouver ce rapport ?

 

 

Voici l’url : https://search.google.com/search-console/not-verified?original_url=/search-console/settings/crawl-stats&original_resource_id

Si vous le cherchez dans la search console, il est plutôt caché car il faudra aller dans la rubrique « paramètres » pour le trouver.

C’est dommage de ne pas l’avoir rendu plus accessibles

A quoi sert ce rapport ?

Ce rapport va vous permettre de récolter toute un série d’informations sur les passages des robots Google sur votre site.

Dans certains cas, vous allez pouvoir identifier des actions à mener pour optimiser le crawl (Globalement Google le gère plutôt bien, donc si vous avez un petit site, il n’y a probablement pas grand chose à espérer côte SEO).

Le rapport nous permet de :

  • Suivre les demandes de crawl par jour
  • Le poids des fichiers téléchargés
  • Le temps de réponse moyen : (le temps de téléchargement, pas le temps d’affichage)
  • voir les codes de retour des pages appelées
  • le type de fichier téléchargé (HTML ,image,…)
  • le type de crawler qui est passé sur la page ( crawler smartphone, ordinateur, image,…)
  • la répartition par objectif (actualisation de page ou découvertes)

Bref, nous avons bien plus que les 3 indicateurs de l’ancien report.

Quelques tips

Temps de téléchargement

Vous vous posez la question sur le temps de chargement de vos pages, le temps de téléchargement peut vous aider à y répondre.

L’ancien rapport mélangeait tout, mais désormais vous pouvez vous concentrer sur le code source des pages HTML. C’est la ressource la plus importante pour le crawler Google.

Historiquement on disait qu’il fallait être sous les 500 millisecondes, en 2020, on peut viser sous les 300 millisecondes.

Si vous utilisez des sous domaines pour différents types de pages, vous avez la possibilité d’analyser les différents hosts (utile quand vous ave un forum en sous domaine notamment).

Découvrir des hosts « surprises »

Qui dit webmarketing, dit tracking et outils tiers. J’ai eu la surprise ce matin de découvrir un sous domaine utilisé par un prestataire externe pour du tracking.

C’est aujourd’hui le sous domaine le plus crawlé par Google. Dommage il n’a aucune valeur SEO. Nous allons pouvoir rectifier le tir via un robots.txt sur le sous domaine.

Ce qui est intéressant, c’est que nous utilisons un célèbre analyseur de logs, mais que nous n’avions jamais vu ce sous domaine. Pour la simple et bonne raison qu’il est géré par un tiers et que nous n’envoyons pas ses logs à notre analyseur de logs préféré.

Calculer le ration entre découverte et actualisation

Autre petite info sympa, vous pouvez voir le ratio de crawl pour la découverte de nouvelles urls.

En fonction de la typologie de votre site ou de la période de l’année, vous devez avoir une idée du ratio de nouvelles pages publiées.

Ce rapport va vous permettre de contrôler que le crawler est syncho.

Ca peut être utile sur les sites Ecommerce au moment de la mise en production de nouvelles collections. Si à ce moment là le taux de découverte est très faible, Google a peut être du mal à découvrir vos nouvelles fiches poduit.

Le rapport vous donne également accès à quelques exemples d’urls crawlées, c’est intéressant de vérifier les patterns de ces urls.

 

En conclusion, ces nouvelles informations peuvent être utiles. J’ai hâte de voir ce qu’on verra dans cet outil lors du prochain update Google.

 

 

 

 

 

Catégories : Uncategorized

0 commentaire

Laisser un commentaire

Emplacement de l’avatar

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *