Focus sur les algorithmes et filtres Google
Toute stratégie en référencement naturel demande de bien connaître le fonctionnement de Google, y compris de ses filtres algorithmiques. C’est pourquoi nous vous présentons aujourd’hui les différents filtres qu’utilise le moteur de recherche pour analyser les sites web.
Pour proposer votre site et vos pages dans le moteur de recherche préféré des Français, Google utilise des robots, appelés googlebots pour analyser les sites présents sur Internet. Ces robots ou crawlers vont analyser les pages ainsi que toutes les informations qu’elles contiennent comme les mots-clés utilisés, les formats (textes, images, vidéos, le maillage, etc). Ils vont ensuite les ajouter à l’index de Google. Ce dernier recense toutes les pages qu’il est possible de trouver via les SERPs (ou pages de résultats) sur Google.
Toute cette analyse est aujourd’hui possible grâce aux filtres algorithmiques que Google a mis en place au fur et à mesure des années et qui constituent aujourd’hui l’algorithme de Google dans sa globalité.
Mais qu’est-ce qu’un filtre algorithmique ?
Vous pouvez être filtré pour plusieurs raisons qui relèvent de parties différentes de l’algorithme de Google :
- contenu (>> en savoir plus sur la rédaction de contenus),
- netlinking,
- UX,
- webcore vitals,
- etc.
Il s’agit plus ou moins des indications transmises à Google afin qu’il effectue correctement ses analyses, comme par exemple comment noter la qualité d’une page. Ces informations vont permettre de trancher sur la pertinence d’une page.
L’objectif final pour Google est d’éliminer au maximum les résultats non pertinents dans ses SERPs, et de proposer des pages pertinentes, claires et faciles à consulter.
Ces filtres algorithmiques sont régulièrement mis à jour par Google.
Les principales mises à jour de Google
PageRank
Mis en place en 1998, le PageRank analyse les liens pointant vers un site web. Plus il y a de liens qui pointent vers un site, plus cela implique que le site est sérieux, pertinent et qualitatif.
Caffeine
Depuis 2010, Caffeine est le filtre qui permet aux crawlers d’analyser et d’indexer une page plus rapidement, permettant ainsi aux SERPs de proposer des résultats récents, sans délai.
Panda
Panda existe depuis 2011 et juge de la qualité des pages d’un site internet. Considéré comme inutile et non-pertinent pour les internautes, un contenu de mauvaise qualité est pénalisé. Quelques exemples de contenus de mauvaise qualité : sur-optimisation de mots-clés, textes plagiés, le duplicate content, etc.
Penguin
Mis en place peu de temps après Panda, le filtre algorithmique Penguin a été mis en place en 2012, et se concentre sur les sur-optimisations. Il peut s’agir d’un trop grand nombre de liens, en maillage interne mais surtout en netlinking (trop de liens pointant vers la page concernée).
Pirate
Cette mise à jour a été significative, puisque c’est avec ce filtre que Google a retiré de ses SERPs les sites de téléchargement illégaux ainsi que les sites ne respectant pas les droits d’auteur.
Avec la même intention, depuis 2017, le filtre Fred lutte contre les sites contenant trop de publicités pour les utilisateurs.
Depuis 2018, Medic surveille les sites abordant notamment les thématiques de la santé et de la finance. Le filtre exige les informations les plus exactes possible.
Hummingbird
Avec la mise en place de Hummingbird en 2013, Google peut désormais comprendre les intentions des internautes plus facilement en traitant les requêtes plus complexes. C’est une véritable avancée qui rend les SERPs encore plus précises.
Phantom
Phantom est une mise à jour importante de 2015. Elle permet au moteur de recherche de sanctionner les sites ne proposant aucun contenu pertinent aux internautes.
Pigeon
Pigeon met en avant les résultats géolocalisés en fonction des recherches des internautes ainsi que de leur position. Cela permet d’apporter des résultats de recherche bien plus précis et pertinents, et c’est sur cela que repose le SEO local. Pigeon existe depuis 2015.
Mobile first
Également en 2015, le fameux mobile-first est apparu sur Google. Désormais, il est essentiel pour n’importe quel site d’être responsive et donc compatible avec les smartphones. Ce filtre traduit les habitudes des internautes, qui passent désormais par leurs téléphones plutôt que par l’ordinateur pour effectuer les recherches.
Ne manquez pas notre article sur le SEO mobile !
BERT
BERT vient compléter Hummingbird en 2019, en permettant à Google de mieux comprendre les requêtes en fonction d’une hiérarchisation des mots dans la barre de recherche.
MUM
2022, Google lance MUM, une fonction avancée d’intelligence artificielle visant à proposer des résultats toujours plus pertinents pour les internautes. MUM ou Multitask Unified Model s’appuie sur un système pluri-linguistique et multimodal (images, textes, vidéos, etc) pour répondre aux requêtes complexes.
À la lumière de ces mises à jour, nous comprenons mieux comment l’algorithme de Google fonctionne.
Nous comprenons également que son algorithme est segmenté de façon à traiter les éventuelles anomalies rencontrées de façon indépendante. Si vous respectez les différents points évoqués sur la partie site web, aucune chance de se faire pénaliser sur Google.
Si vous avez des doutes, faites-vous aider et contactez-nous, nous sommes à votre disposition !