Les bons tuyaux SEO

Surfeur Raisonnable : une notion indispensable au PageRank

Article publié le 7 mars 2022
Surfeur Raisonnable : une notion indispensable au PageRank

En 2010, Google brevetait le modèle du Surfeur Raisonnable, redéfinissant l'importance des backlinks et donc, les techniques de SEO pour améliorer le référencement de leurs pages. Contrairement au modèle aléatoire employé jusqu'ici avec le PageRank, celui-ci est capable de prendre la « décision » de suivre ou non un lien en se basant sur la logique sémantique des contenus (certes pondérée), ce qui a contribué à renforcer la puissance du netlinking naturel. SEMJuice, partenaire de vos liens, vous explique pourquoi la stratégie de maillage interne permet réellement d'influencer votre positionnement sur Google.

Définition du Surfeur Raisonnable

Mieux comprendre le fonctionnement de Google permet d'affiner ses techniques SEO, mais pour cela, il faut parfois remonter un peu dans le temps. Ce modèle mathématique développé par Google en 1998 a pour but de « simuler » le comportement d'un utilisateur lambda sur le web.

Rappel : qu'est-ce que le PageRank ?

Pour comprendre le fonctionnement du surfeur, il faut commencer par comprendre le PageRank, lui-même à la base du fonctionnement de Google. Développé par Larry Page et Sergey Brin (fondateurs de Google), le PageRank permet de classifier les pages web en leur attribuant un « score » de pertinence compris entre 0 et 10 (note maximale).

Surfeur Aléatoire

Pour présenter à l'utilisateur les résultats de sa requête, il ne suffit pas cependant de référencer tous les sites traitant du sujet. Google doit les présenter dans un ordre spécifique. Comment décider quel résultat doit être présenté avant un autre ? Le moteur de recherche californien s'est basé sur un modèle décisionnel capable de détecter, choisir et suivre au hasard les liens hypertextes d'un contenu.

Il pouvait ainsi rebondir de page en page à l'infini, et compter le nombre de fois qu'il (re) visitait un site. Dans ce modèle breveté par Google, c'est le nombre de visites qui définit quel résultat de classement sera présenté en premier, c'est-à-dire quel site reçoit le plus de liens, ajouté à une part d'aléatoire. En effet, comme son nom l'indique, il comporte une part de hasard estimée par certains experts SEO à environ 15 %. Soit il choisit de suivre un lien, soit il disparaît brusquement et se « téléporte » ailleurs à un autre endroit du web, sans aucun rapport avec la page qu'il visitait alors.

Malheureusement, les secrets de ce système de référencement ont vite été percés par le rétro-engineering. À l'époque où il était affiché, le PageRank a été très manipulé par les SEO qui cherchaient à optimiser le positionnement de leurs pages, et pas toujours subtilement… Pour préserver la qualité des résultats de recherche présentés aux internautes (et donc sa propre crédibilité), Google a alors décidé de :

  • ne plus afficher le score PageRank sur les pages web (2009),
  • déployer des algorithmes de lutte contre le spam (Pingouin et Panda en tête, en 2012),
  • affiner son modèle avec le développement d'un « Surfeur Raisonnable » (brevet déposé entre 2010 et 2012).

Qu'apporte-t-il de différent, et quel est l'intérêt pour le SEO ?

L'arrivée du Surfeur Raisonnable

Le surfeur aléatoire de Google était un peu « simpliste ». Il suivait un lien qu'il soit pertinent ou non, et parfois, disparaissait sans aucune raison. Son évolution modélise une décision davantage basée sur la logique. Il introduit donc de nouvelles notions de popularité, qui ont permis d'enrichir les résultats de la SERP, rendant les pages de résultats Google plus pertinentes et intéressantes pour l'utilisateur.

Du côté des webmasters, ce nouveau système a instauré un nouvel ensemble de règles à suivre pour optimiser son SEO. La façon dont l'algorithme considère un lien ne se base plus sur le simple nombre de visites. On commence à parler de pertinence du lien. Il en est terminé l'intérêt des liens entre deux pages sans aucune logique sémantique entre elles. La popularité se mesure désormais par le nombre de liens couplés à la qualité et l'autorité de ces derniers.

Les changements liés au Surfeur Raisonnable

En termes de SEO, cela se traduit par de nouvelles habitudes à prendre pour sa stratégie de liens.

La position du lien sur une page

Google détermine désormais des zones de page dans lesquelles des liens sont « naturellement » censés avoir plus d'intérêt que d'autres. Les liens en footer ou en dehors du corps du texte ont ainsi beaucoup moins de poids. Le lien le plus important sera donc situé dans le corps du texte, au-dessus de la ligne de flottaison (c'est-à-dire dans le premier tiers des pages). Le premier lien de la page se verra également attribuer plus d'importance qu'un lien venant après 2 autres liens ou plus…

Attention, même si un lien en bas de page ou situé en fin de texte se voit attribuer moins d'importance en référencement naturel, il consomme tout de même du jus SEO. L'idéal est donc de limiter la concurrence entre les liens pour en maximiser le jus.

Les caractéristiques du lien

Avec cet algorithme de Google dans la balance, le lien ne se contente plus de son rôle premier. Le nombre de mots qui compose l'ancre de lien, leur ordre ainsi que le contexte sémantique dans lequel il est situé sont soigneusement analysés. C'est par exemple la proximité sémantique d'une page qui détermine la légitimité d'un lien vers d'autres pages. Un site qui vend des voitures n'a ainsi aucun intérêt à envoyer des liens vers une page de puériculture. Une ancre de lien contenant de nombreux mots (qui favorise plutôt la longue traîne en SEO) aura plus de chances d'être suivie, ainsi que celles qui contiennent des injonctions ou calls-to-action, comme « cliquez ici » par exemple, car tout cela va dans le sens du naturel.

Puisqu'un lien est un élément important dans le contexte d'une page, qu'il va attirer l'œil du lecteur, les robots de Google favorisent également tout ce qui va le mettre en avant : police d'écriture, couleur, taille, mise en forme… Ces éléments supposent qu'un lien qui se démarque visuellement a plus de chances d'être cliqué qu'un lien qui se fond dans son texte. Pour les liens posés sur les images, c'est la même chose. Il faut que l'image se démarque visuellement. Les images les plus grandes ont ainsi plus de probabilités d'être cliquées.

Tous ces éléments modulent ainsi l'importance des liens, en modifiant les probabilités qu'ils soient « naturellement » suivis ou non par les robots de crawl de Google.

PageRank : l'importance du maillage interne

Pour les robots de Google, un lien est un lien. On traite de la même manière les liens externes et les liens internes. Pour un bon référencement, il est donc essentiel de travailler son maillage interne et de le contrôler soigneusement. Laisser son maillage interne être décidé par un plugin ou une formule de randomisation n'est donc pas très… « PageRank ».

La proximité sémantique entre vos propres pages internes est primordiale, ainsi que la position des liens internes au sein de leur page et leur mise en forme (décidée par votre CSS ou autre). Un maillage interne qui comprend le PageRank se construit en silos sémantiques, imperméables entre eux, dans le sens descendant (vers les pages profondes), mais aussi dans le sens ascendant (vers la page d'accueil).

La version la plus perfectionnée d'un maillage interne SEO conduit à la création d'un véritable cocon sémantique, une technique de netlinking avancée qui se base sur un maillage interne cohérent, dense et très riche sémantiquement. Une page, un contenu, un mot-clé, c'est la règle de base pour être bien référencé. En ajoutant des liens entre des pages proches sémantiquement, il devient possible de redistribuer de manière contrôlée et optimisée le jus SEO provenant des autres pages.

Comme on l'a vu, le modèle du Surfeur Aléatoire du PageRank avait ses limites, qui rendaient l'algorithme de référencement de Google un peu trop facile à manipuler. Si le modèle de base disposait de la connaissance et de la capacité d'analyse, il lui manquait une forme de « conscience décisionnelle », pourrait-on dire, qui lui aurait permis de simuler un pseudo comportement humain. L'arrivée du surfeur raisonnable amène la prise de décision basée sur une forme de logique, ce qui a eu pour conséquence de modifier les habitudes SEO et de limiter (davantage) les abus de l'optimisation. Elle complexifie aussi beaucoup l'art de la stratégie de liens, rendant l'accompagnement personnalisé par des experts du netlinking essentiel pour les débutants. Si vous souhaitez avoir des conseils, SEMJuice est d'ailleurs là pour vous accompagner dans votre campagne de netlinking.

Demandez un audit et un devis gratuit pour une stratégie de netlinking

Avec des algorithmes capables non seulement de lire une page, mais aussi de la comprendre, Google en est arrivé à modéliser les grandes lignes d'un comportement presque… humain. En effet, le moteur de recherche dispose d'algorithmes capables de juger si un contenu lié est pertinent ou non, et de décider s'il va suivre un lien ou non. On est encore loin de Skynet et des intelligences artificielles douées d'une véritable conscience, mais cette petite évolution est à son échelle une véritable « révolution » dans le monde du lien et du SEO.