01/07/2024

Trop longtemps délaissé et aujourd’hui plébiscité, Google Search Console est l’outil gratuit et fiable indispensable à toute stratégie SEO digne de ce nom.
Voici un rapide panorama des fonctions clés de la plateforme.

Suivez l’évolution de vos performances SEO

Google Search Console est le plus fiable des outils de suivi des performances SEO puisqu’il fournit les informations directement issues des clics arrivant depuis Google et non pas, comme Google Analytics des informations produites côté client, et donc beaucoup moins fiables.

Vous pourrez suivre 4 métriques :

  • Les clics SEO
  • Les impressions (1 impression = 1 affichage d’une page de votre site dans un résultat d’une recherche)
  • Le CTR (= Click To Rate), à savoir le taux de clic (% des internautes ayant choisi de cliquer dans Google sur un résultat amenant vers votre site)
  • La position moyenne sur toutes les impressions (à quelle position apparait votre site dans la page de résultats, « 1 » étant le graal).

Vous pourrez analyser ces données selon leurs dates :

  • En choisissant une période
  • Avec des comparaisons possibles sur les périodes précédentes ou sur l’année précédente
  • Mais avec une contrainte forte cependant : vous ne pourrez accéder qu’aux résultats des 16 derniers mois.

Et particulièrement intéressant, vous pourrez analyser les recherches en les limitant à certains mots-clés ou à des pages particulières. Ceci vous permettra notamment d’identifier un point crucial du SEO qui est la proportion de requêtes de notoriété dans votre trafic SEO (la proportion d’utilisateurs qui saisissent votre nom de marque dans Google pour accéder à votre site).

Un conseil pour utiliser Search Console à pleine puissance : exportez les données via Looker Studio, d’une part pour accéder à l’intégralité des données, et d’autre part pour pouvoir les intégrer dans vos propres outils pour les analyser en profondeur. Pour commencer l’utilisation d’Excel et la combinaison de filtres sur plusieurs colonnes vous permettra d’activer facilement des analyses fines de données.

Analysez ce qui intéresse vos cibles

Google Search Console vous donne accès à l’information la plus précieuse qui soit pour l’optimisation SEO : quelles sont les requêtes qui sont saisies par les internautes. Celles qui génèrent des visites sur votre site, mais encore plus intéressant, aussi celles qui ont généré des affichages mais n’ont pas généré de visite.

S’agissant des requêtes des internautes, vous aurez grand intérêt à analyser les cas de figure suivants :

  • un nombre élevé d’impression, une position intéressante et un taux de clic faible : vous avez alors sans doute un problème d’annonce SEO. A savoir que le titre et le descriptif qui apparaissent dans la page de résultats n’incitent pas assez au clic. A vous l’optimisation des balises title / description.
  • une requête stratégique, un nombre élevé d’impression et une position « lointaine » : le problème est sans doute assez profond, mais vous savez où creuser …
  • requête de longue traine, position avantageuse et taux de clic élevé : c’est top, et cela doit donner des idées pour répéter cette réussite.

Moins intuitif l’analyse des performances de chaque page sera riche d’enseignements. Par exemple les requêtes associées à une page donnée vous permettent de vérifier que l’intention de recherche traitée par cette page est claire et précise (à défaut, peut-être auriez-vous intérêt à créer une page supplémentaire).

Vérifiez la qualité de votre indexation

Le rapport d’indexation de la Google Search Console regorge d’informations sur l’état de santé SEO d’un site. Le premier graphe ci-contre donne l’état de l’indexation des urls connues de Google sur 3 mois. Le ratio idéal n’est pas nécessairement de 100% d’urls indexées.

Des urls non indexées peuvent l’être pour de bonnes raisons (bloquées par le fichier Robots.txt ou une balise noindex, redirections 301) et de mauvaises raisons (contenu dupliqué, erreurs 404, pages dépubliées en 302 ou redirigées en 301 mais recevant toujours des liens internes…). Réciproquement, toute url indexée n’est pas bonne à prendre, comme les urls de filtres à facettes, véritables pièges à robots.

Google catégorise les urls non indexées dans le rapport ci-dessus. La catégorie la plus infamante étant
“Détectées, non indexées” : Google n’a pas pris la peine d’explorer l’url !

L’analyse détaillée de ces données présente une forte valeur ajoutée SEO. Améliorer la qualité de votre indexation optimise le budget crawl de Google, donc l’explorabilité du site et, in fine, son trafic SEO. Cela passe par l’identification et la correction d’erreurs techniques, la suppression et la redirection de pages inutiles, le blocage de certains filtres avec le fichier Robots.txt.

Inversement, analyser les performances des pages indexées permet aussi d’identifier des pages à 0 clic, souvent inutiles, non optimisées ou faiblement accessibles. Ici, l’action consistera à faire un gros nettoyage et/ou à enrichir des contenus, optimiser le maillage interne, voire fusionner des pages.

A noter que la seule analyse des données d’indexation de la Google Search Console n’est pas suffisante pour les sites à fort volume d’urls pour lesquels un audit technique approfondi est nécessaire.

Suivre Googlebot à la trace

Voici une fonctionnalité bien cachée accessible dans Menu > Paramètres > Statistiques sur l’exploration.

Ce rapport présente l’historique sur 90 jours des demandes d’exploration de Googlebot, des données téléchargées et du temps de réponse moyen des pages. Il recense aussi les problèmes éventuels de disponibilité de votre site en indiquant les raisons.

A droite, la courbe donne une vision globale du comportement de Googlebot et il est aisé d’identifier une anomalie. Ici, Google s’est anormalement excité quelques semaines : le robot interroge le site près de 3 fois plus qu’habituellement.

Et, s’il ne donne pas les raisons (à nous de les décoder), le rapport présente des pistes d’analyse en indiquant les taux d’exploration selon les réponses serveurs et les ressources rencontrées.

Ici, le problème vient clairement d’une hausse des erreurs 404 et des redirections 301 qui représentent près de 60% des demandes d’exploration sur les derniers 90 jours. Une fois le problème technique résolu, l’activité de Googlebot revient à la normale.

La Google Search Search Console, c’est encore mieux avec des amis

La Google Search Console présente 2 gros défauts :

  • Les données sont restreintes à 1 000 lignes, donc impossible d’avoir une vue représentative et précise des performances de recherche.
  • L’interface complique l’analyse : difficile de faire des comparaisons ou d’effectuer des recherches multicritères, pas de progressions en pourcentage, impossible d’enregistrer ses filtres favoris ou de créer des alertes, et j’en passe…

Or, on peut brancher l’API de la Search Console à des outils tiers qui font ami-ami avec ses données pour repousser ses limites. Nous en avons choisi 3 que nous utilisons quotidiennement.

Olivier Duffez (Webrankinfo) et Fabien Facériès proposent avec My Ranking Metrics deux outils complémentaires.

RM Console fait parler les données de performances (requêtes, urls, clics, impressions, positions, taux de clic), avec l’objectif d’identifier les opportunités de trafic. L’outil permet – entre autre – de clusteriser les urls et requêtes d’un site, de faire du suivi d’impact des optimisations, de mettre en place des alertes personnalisées ou d’analyser des chutes SEO comme ici.

RM Tech est l’outil d’audit SEO technique de My Ranking Metrics. Outre les seules données techniques, il croise les données de crawl et d’indexabilité avec les clics de la Search Console. Les indices maison “QualityRisk” et “PagesZombie” permettent d’évaluer les (contre-)performances du site et d’identifier sur quelles urls agir.

Gratuit, Google Looker Studio peut aussi être connecté à l’API de la Search Console pour générer des reportings SEO sur-mesure. La limite des 1 000 requêtes affichées saute et vous avez une interface de lecture plus agréable que celle de la Google Search Console, mais cela peut demander pas mal d’huile de coude et il sera difficile d’atteindre la profondeur d’analyse de la RM Console qui présente déjà une première couche d’analyse des données.

Un bonus pour la fin, avec Screaming Frog. Contrairement, aux outils précités, il s’agit uniquement d’un outil de crawl SEO, non d’analyse qu’il faudra faire à la main. La connexion à la Google Search Console permet d’exporter les clics, impressions, positions, taux de clic des urls jusqu’à 16 mois : pratique pour préparer la migration d’un site de moyenne importance et ne pas oublier d’urls dans le plan de redirection. A noter que ScreamingFrog peut aussi interroger l’API d’inspection d’url pour connaître le statut d’indexation des 2 000 premières urls explorées. Intéressant pour l’analyse de l’indexation d’un petit site. Sinon, il faudra se tourner vers RM Tech qui est beaucoup plus puissant.

Vos projets

nous intéressent,

Contactez-nous !

Nous sommes fiers que notre travail UX / UI / web
ait été remarqué avec plusieurs récompenses prestigieuses.