Lorsqu’un internaute recherche quelque chose sur internet, il utilise le moteur de recherche de son navigateur. Dans 92 % des cas, il s’agit de celui de Google.

Ce dernier possède une infinité de robots – appelés « googlebots » – qui passent leur temps à parcourir le web pour alimenter et mettre à jour une base de données contenant l’adresse de chaque page trouvée (comme https://pro.orange.fr/lemag/ par exemple), son contenu (titre, texte, nom des images, texte des images…) et la liste des liens allant de cette page vers d’autres pages.

L’ensemble de ces pages est ensuite stocké dans des milliers de serveurs disséminés à travers le monde. Une fois la requête de l’internaute renseignée, Google y recherche les pages qu’il juge les plus pertinentes puis les affiche dans sa fameuse page de résultats.

Un guide pour mieux comprendre comment Google classe ses résultats

Dans un récent post, Google a annoncé la mise à disposition d’un nouveau guide visant à permettre aux créateurs de sites internet de se familiariser avec les systèmes de classement des résultats de recherche.

On y apprend que la firme de Mountain View utilise différents systèmes comme :

  • Le BERT (Bidirectional Encoder Representations from Transformers) qui lui permet de comprendre comment des combinaisons de mots peuvent exprimer différentes significations et intentions
  • Des systèmes de déduplication visant à fournir les résultats les plus pertinents pour éviter les doublons inutiles dans une recherche
  • Des systèmes de fraîcheur de l’information visant à afficher un contenu plus récent pour certaines requêtes spécifiques
  • Des systèmes de contenu utile (ou « helpful content ») conçus pour garantir un contenu original et utile écrit par des personnes pour des personnes dans les résultats de recherche, plutôt que du contenu conçu principalement pour générer du trafic sur les moteurs de recherche
  • Des systèmes « page experience » qui évaluent, par le biais de divers critères, si une page web offre une bonne expérience utilisateur
  • Des systèmes d’avis sur les produits qui visent à assurer plus de visibilité aux avis sur les produits de haute qualité et aux contenus qui fournissent une analyse pertinente, rédigés par des experts ou des passionnés qui connaissent bien le sujet
  • Des systèmes d’informations locales permettant d’identifier et de mettre en évidence les sources d’actualité locales lorsque cela est pertinent dans le cadre d’une requête.

Que retenir de ce guide ?

Que vous devez toujours privilégier la qualité à la quantité. Autrement dit, plus vos publications seront intéressantes, plus Google les jugera « dignes » d’être correctement référencées.

Autre point important : le choix de vos mots-clés. Au cours de la rédaction d’un contenu, demandez-vous toujours quelles sont les expressions que les internautes seront susceptibles de taper pour le trouver ? Une fois ces mots-clés identifiés, répartissez-les au sein de votre texte avant de le publier.

Par ailleurs, Google, comme les autres moteurs de recherche (Yahoo!, Bing…), privilégie les sites bien structurés. Ce qui signifie que plus le contenu de vos pages sera accessible (c’est-à-dire classé par thématiques avec des catégories, des sous-catégories…), plus vous aurez de chances d’être bien référencé.

Pensez aussi à mettre à jour régulièrement votre site. De cette manière, les googlebots y effectueront de nombreux passages. Et plus ils y effectueront des passages, plus votre site sera bien référencé.

Enfin, le « duplicate content » – ou contenu dupliqué en français – est une pratique qui, si elle est détectée par Google, risque de vous coûter très cher. Au mieux, le géant américain reléguera vos pages au fin fond de ses résultats. Au pire, il les supprimera.