Les bons tuyaux SEO

Les différents algorithmes de Google

Article publié le 15 févr. 2021
Les différents algorithmes de Google

Nous utilisons tous Google au quotidien pour trouver de l'information, des actualités, des produits ou encore mettre en avant les services de notre entreprise… mais savez-vous comment le moteur de recherche fonctionne ?

Pour mener à bien une stratégie SEO performante, il est important de comprendre de quelle manière Google analyse les pages et de connaître le fonctionnement de ses principaux algorithmes. C'est la clef pour bien positionner votre site et vous assurer la meilleure visibilité sur internet.

Comment fonctionne Google ?

Google domine le web aujourd'hui. Avec 92% des parts de marché de la recherche en ligne en France, Google est incontestablement le moteur de recherche préféré des Français.

Puisque ce géant joue un rôle décisif sur la visibilité de votre site auprès des internautes, il est donc nécessaire de bien respecter ses règles et ses recommandations pour garantir un bon classement de votre plateforme et de vos pages dans les résultats de recherche.

Sur le web, les sites sont connectés par des liens, ce qui permet aux googlebots, les robots « crawlers » que l'on appelle aussi « spiders », de parcourir tous les sites du web. De lien en lien, page par page, le robot va donc visiter chaque site et en tissant sa toile, il va créer l'index Google.

L'index regroupe tout le contenu que Google a visité et a décidé de proposer dans ses résultats de recherche lors des requêtes des internautes. Lors de chaque visite de page, Google va en extraire des informations : les mots utilisés, les images intégrées, les liens qui s'y trouvent, la hiérarchie des informations à travers la mise en forme, les micro-données… Puis, le robot décide ou non d'indexer ces contenus.

Aujourd'hui, tout ce fonctionnement de Google est automatisé grâce à l'élaboration et l'amélioration continue d'une multitude d'algorithmes très puissants.

Qu'est-ce qu'un algorithme Google ?

Les algorithmes sont des instructions mathématiques qui indiquent aux robots de Google comment accomplir leurs tâches. Dans le cas du SEO, les algorithmes vont indiquer aux bots comment indexer et interpréter les pages qu'ils parcourent et classer l'information selon sa qualité.

Leur objectif est d'améliorer sans cesse la pertinence des résultats dans les pages de résultats de recherche sur Google afin de fournir des réponses de la plus haute qualité aux internautes qui utilisent ce moteur de recherche.

Ces programmes informatiques sont au cœur des techniques de la recherche web et se basent sur des centaines de critères pour comprendre, évaluer et positionner chaque site web.

À quoi servent-ils ?

Ainsi, les algorithmes de Google vont régulièrement scanner les milliards de sites qui existent sur le web, analyser leurs contenus puis les classer afin de les proposer dans les résultats de recherche lorsque le contenu du site répond parfaitement à une requête.

Analyser les mots d'un site web, les comprendre et les faire correspondre de manière pertinente et qualitative aux requêtes des utilisateurs pour en satisfaire sa recherche, ce sont les enjeux principaux de ces algorithmes.

L'un des premiers algorithmes de Google dès 1998 fut le PageRank, cet algorithme tient son nom de Larry Page, l'un des fondateurs de Google. Le PageRank est toujours utilisé aujourd'hui, il analyse les liens qui pointent vers un site, en mesure la qualité et la quantité de liens et classe le site en conséquence.

De plus, dans une quête d'amélioration constante et grâce aux avancées technologiques, les algorithmes connaissent des changements chaque année. Certains ajustements sont mineurs, tandis que d'autres mises à jour majeures peuvent impacter le classement des sites dans les résultats de recherche de manière très importante.

En effet, les algorithmes ont été conçus pour des objectifs bien définis, ils peuvent favoriser le positionnement d'un site selon des critères comme la vitesse de chargement d'une page, la sécurité, l'expérience utilisateur… À l'inverse, d'autres algorithmes ont pour but de pénaliser les sites qui ne respectent pas les règles et les recommandations de Google !

Il est donc utile de comprendre ces algorithmes afin d'optimiser votre référencement naturel et éviter les pénalités de classement.

Les principaux algorithmes de Google

Depuis la création de Google en 1998 et l'apparition du SEO, de nombreuses mises à jour sont venues s'ajouter aux algorithmes de recherche. Nous allons voir ci-dessous les mises à jour les plus célèbres, sachant que Google modifie ses algorithmes environ 500 fois par an !

Google Panda

L'algorithme Google Panda a été créé en 2011. Il correspond à un filtre de recherche privilégiant la qualité et a eu un très gros impact sur le positionnement de nombreux sites internet. Panda pénalise les sites dont le contenu est jugé de mauvaise qualité et de faible valeur ajoutée pour les utilisateurs. Panda identifie également les contenus dupliqués, plagiés ou encore le bourrage de mots-clés.

Avec cet algorithme, Google a souhaité nettoyer sa base de résultats afin de proposer un index de qualité et écarter les fermes de contenus.

Google Penguin

La mise à jour Penguin en 2012 est aussi un filtre du moteur de recherche qui vise à sanctionner les sites suroptimisés notamment au niveau de leur linking (Black Hat SEO) pour gagner des positions sans penser à l'expérience utilisateur.

Par exemple, Google cible les sites qui manipulent son classement avec des techniques de netlinking abusives.

Tout comme Panda, l'algorithme souhaite valoriser les sites web de qualité et qui respectent les règles de Google, toujours dans un but d'amélioration des résultats dans les pages du moteur de recherche avec une mise en avant des sites les plus fiables.

Depuis 2016, Penguin fait partie de l'algorithme principal de Google et fonctionne en temps réel.

Caffeine

En 2010, la mise en place de cet algorithme a changé le système d'indexation de Google et permis d'augmenter la vitesse de crawl et d'indexation des pages. Depuis, ce nouvel algorithme permet aux robots de crawler et d'indexer une page instantanément, ce qui donne la possibilité à Google de proposer dans ses résultats des contenus beaucoup plus récents qu'auparavant.

Pigeon

Apparue en 2015, cette modification a pour but de favoriser les résultats locaux selon les recherches des internautes et leur géolocalisation, afin d'apporter une réponse toujours plus précise à leur requête.

C'est une mise à jour très utile pour la recherche locale et qui permet d'accroître la visibilité des commerces de proximité.

Hummingbird (Colibiri)

Apparu en 2013, cet algorithme apporte des changements majeurs dans le fonctionnement des résultats de recherche, notamment avec l'intégration de l'intelligence artificielle.

Avec sa mise à jour Rankbrain en 2015, cet algorithme permet à Google de mieux comprendre l'intention des internautes et pas simplement une juxtaposition de mots-clés. La mise à jour permet donc d'interpréter les questions les plus complexes afin que le moteur de recherche puisse proposer des résultats plus pertinents et plus précis en réponse aux demandes des internautes.

Mobile First

Depuis 2015, le critère de la compatibilité mobile est devenu un facteur primordial pour bien référencer son site web dans les SERP du moteur de recherche. Cette adaptation semble aujourd'hui nécessaire compte tenu des comportements des utilisateurs et d'une consommation web croissante sur mobile. Le responsive design devient donc un facteur de classement SEO.

Par la suite, en 2017, Google a lancé son mobile first index.

Page Layout

Intégrée au moteur de recherche en 2012, cette mise à jour souhaite pénaliser les sites qui abusent de la publicité, notamment au-dessus de la ligne de flottaison. Il s'agit d'un premier pas en faveur de l'intégration de l'expérience utilisateur dans les stratégies de référencement naturel.

BERT

Cette mise à jour datant de 2019 vient approfondir la compréhension des requêtes des internautes par une hiérarchisation des mots et expressions utilisés par les utilisateurs. BERT favorise ainsi les contenus qualitatifs afin de permettre aux internautes d'obtenir des résultats de recherche de plus en plus pertinents.

Pirate

En 2012, Google met en place cet algorithme qui vise à retirer des résultats les sites proposant des téléchargements illégaux et ceux qui ont reçu des plaintes pour violation de droits d'auteur, envoyées depuis le système DMCA de Google.

Exact Match Domain

Mis en place en 2012 également, cet algorithme a pour objectif de refermer la faille du nom de domaine dans les stratégies SEO et ainsi d'empêcher les sites de mauvaise qualité d'arriver dans les meilleurs résultats de recherche uniquement grâce à un nom de domaine très recherché par les internautes.

Phantom Update

La Core Update Phantom date de 2015 et permet à Google de pénaliser les sites qui ne présentent pas de contenus pertinents à leurs visiteurs afin d'améliorer l'expérience utilisateur des internautes.

Fred

La mise à jour Fred, apparue en 2017, souhaite lutter contre les sites qui affichent trop de publicités et qui nuisent là encore à l'expérience utilisateur.

Medic

Medic est une mise à jour majeure réalisée en 2018 et qui vise certains domaines précis qualifiés de YMYL (Your Money Your Life), soit des sites qui traitent de la santé, de la finance, des conseils de vie… Google exige que ces sites respectent strictement ses recommandations et qu'ils soient d'une qualité irréprochable avec entre autres une grande impartialité et une rigoureuse exactitude des informations.

Depuis, Google a confirmé que ces exigences concerneraient maintenant tous les sites et toutes les thématiques.

Page Experience

Pour 2021, Google a annoncé le déploiement d'une nouvelle mise à jour qui concerne l'expérience utilisateur (UX). Sous le nom de Google Page Experience, cette mise à jour du moteur de recherche renforce son engagement pour un SEO plus respectueux de l'internaute et démontre ainsi que l'UX deviendra un critère SEO pour Google en 2021 !

Un site de qualité selon Google

Les différents algorithmes de Google ne manqueront pas de pénaliser automatiquement votre site internet s'il ne respecte pas les règles dictées par Google.

Il est donc important de proposer un site de qualité pour atteindre deux objectifs :

  1. Répondre au besoin de l'utilisateur afin qu'il trouve l'information qu'il recherche facilement et rapidement ;
  2. Plaire aux algorithmes afin qu'ils classent votre site dans les premiers résultats de recherche, ce qui vous permet de bénéficier d'une visibilité naturelle et méritée.

Avec tous ces algorithmes qui changent fréquemment, plusieurs aspects de votre site internet sont concernés et doivent être optimisés en conséquence.

Votre contenu

Le contenu que vous proposez sur votre site web doit être unique, original et apporter une vraie valeur ajoutée à chaque visiteur. Ce contenu doit être rédigé par vos soins et ne pas être copié d'un autre site au risque de vous faire pénaliser pour duplicate content.

Intégrez dans votre contenu les mots-clés pertinents liés à votre activité, mais attention au bourrage de mots-clés. Pensez toujours au lecteur et privilégiez la facilité de lecture. Une suroptimisation des mots-clés se ressent tout de suite, c'est très désagréable pour l'utilisateur. Panda est capable de détecter cette pratique et n'hésitera pas à vous attribuer une pénalité.

L'aspect technique

La construction de votre site et la technologie utilisée ne sont pas à négliger. De nombreux critères qui influencent votre position sur Google relèvent de la technique. Assurez-vous d'avoir un site léger afin d'obtenir un temps de chargement de vos pages rapide (moins de 3s).

De plus, il est primordial que votre site soit HTTPS et qu'il bénéficie d'un certificat de sécurité SSL.

La notoriété

L'autorité d'un site web est toujours très importante aux yeux des algorithmes de Google. Si désormais le netlinking abusif est pénalisé, n'oubliez pas qu'un netlinking de qualité est, quant à lui, indispensable pour votre stratégie de référencement naturel.

Prenez le temps d'élaborer des backlinks de qualité avec des sites partenaires populaires et reconnus dans votre domaine afin d'obtenir un score d'autorité élevé.

Chez SEMJuice, nous pouvons vous accompagner pour optimiser votre stratégie de netlinking.

Demandez un audit et un devis gratuit pour une stratégie de netlinking

Les sanctions des algorithmes Google

Il est important de bien connaître les algorithmes de Google, puisque si vous ne les respectez pas, votre site peut se retrouver pénalisé. Selon le type de pénalité, vous n'en serez pas toujours averti, c'est pourquoi vous devez toujours suivre de près vos statistiques dans votre outil Analytics et dans votre Search Console.

Si vous recevez une pénalité manuelle après l'inspection de votre site par un employé de Google, celui-ci vous en avertira. Après correction du problème, vous pourrez demander un réexamen de votre plateforme pour faire retirer la pénalité.

Si vous subissez une sanction automatique par un algorithme, vous le saurez uniquement par une chute de trafic naturel et la perte de vos positions. Vous devrez donc trouver le problème et le corriger pour espérer voir la pénalité disparaître.

Vers le SXO : Search eXperience Optimization

Les algorithmes de Google connaissent des modifications de façon régulière afin de répondre aux requêtes des internautes de manière toujours plus efficace. Ces changements vont se poursuivre en corrélation avec les avancées de l'intelligence artificielle, des systèmes de prédiction et l'accélération de la recherche vocale.

Il faut donc toujours rester à l'affut des nouvelles annonces du géant de la recherche web pour maximiser sa visibilité sur internet.