publié le 13 sept. 2021
Spamdexing

Définition SEO de Spamdexing

Le Spamdexing est une technique black hat SEO qui consiste à manipuler l'algorithme des moteurs de recherche pour positionner favorablement un site web dans la SERP via différentes méthodes d'optimisation. Historiquement porté sur le contenu, le spamdexing concerne désormais de plus en plus les liens factices

Définition de Spamdexing

Dans l'univers du référencement naturel et du marketing numérique en général, deux écoles s'affrontent au quotidien : le SEO White Hat et le SEO Black Hat. Ce dernier est particulièrement réputé pour ses pratiques de référencement peu recommandables, connues sous l'appellation générique de spamdexing.

Qu'est-ce que le Spamdexing ?

Le spamdexing désigne l'ensemble des stratégies SEO qu'utilisent les adeptes du référencement non éthique pour manipuler les robots des moteurs de recherche. Quelle que soit la forme sous laquelle il se présente, cet ensemble de pratiques a un objectif unique : améliorer de façon directe ou indirecte le positionnement d'un site internet dans les pages de résultats afin de générer du trafic et des revenus. Aucune priorité n'est donc donnée à l'amélioration de l'expérience utilisateur ou à la satisfaction des besoins des internautes.

Le spamdexing s'oppose au référencement éthique qui obéit aux recommandations des principaux moteurs de recherche : Google, Bing, Yahoo!.

L'origine du mot Spamdexing

Spamdexing est un anglicisme provenant de la combinaison des mots spam et indexing. En français, on parle également de spam web ou de spam de recherche. Cette pratique de référencement abusive existe depuis l'avènement des premiers moteurs durant les années 1990 : Excite, Lycos, Webcrawler, Infoseek. Le terme Spamdexing a été mentionné pour la première fois en 1996 par Eric Convey dans un article publié dans le journal Boston Herald. À l'époque, il faisait référence à l'usage abusif de mots-clés sur une page web dans le but de tromper les moteurs. Depuis, les stratégies utilisées par les spammeurs n'ont cessé d'évoluer.

Les différentes techniques de Spamdexing

Les pratiques de spamdexing les plus connues actuellement sont :

  • Le bourrage de mots-clés
  • Les contenus cachés
  • La génération automatique de contenu
  • Le cloaking
  • Le scraping
  • Les fermes de backlinks
  • Les spams de commentaires
  • La création de backlinks automatique

Ces pratiques peuvent être réparties en deux catégories : le spamdexing de contenu et celui des backlinks.

Spamdexing de contenu

Ce type de spamdexing désigne l'ensemble des pratiques de référencement abusives on-site.

Le bourrage de mots-clés

Aussi appelé keyword stuffing, le bourrage de mots-clés consiste à répéter de façon excessive un terme ou une expression donnée sur une page web pour améliorer son SEO. Ce bourrage peut se faire dans le corps d'un article, dans les métadonnées ou au niveau du footer. En augmentant de façon non naturelle la densité du mot-clé qu'il vise, le spammeur espère tromper les algorithmes du moteur de recherche afin d'améliorer artificiellement la pertinence de son site pour une requête.

Les contenus cachés

Les contenus cachés sont des données présentes dans le code source d'une page web, mais qui ne sont pas visibles pour les internautes. Il peut s'agir par exemple de mots-clés rendus invisibles grâce à une taille de police zéro ou cachés derrière des images. Ces éléments invisibles pour un humain servent à manipuler les algorithmes des moteurs de recherches, car ceux-ci peuvent les prendre en compte pour définir le classement de la page.

La génération automatique de contenu

Certains webmasters utilisent des programmes informatiques pour générer automatiquement des articles dans une optique SEO. Ainsi, à partir d'un seul texte de départ, ils peuvent créent une dizaine d'articles similaires pour remplir leurs pages. Le content spinning est généralement utilisé par les spammeurs pour alimenter les réseaux de sites satellites, les Made for Adsense et d'autres plateformes sans que cela soit considéré par les moteurs de recherche comme du duplicate content. La qualité des textes laisse cependant à désirer dans la grande majorité des cas.

Le cloaking

C'est une pratique qui consiste à mettre en ligne sur une page des données différentes selon que le visiteur est un humain ou un robot de Google. Dans le premier cas, l'affichage est souvent normal, avec des informations lisibles et de belles images… Mais si l'user-agent est un robot, le système est configuré de manière à ce que les éléments à explorer soient suroptimisés pour induire l'algorithme en erreur afin d'obtenir un positionnement non mérité.

Le scraping

Le scraping consiste à extraire de façon automatique des données d'un site web (billets de blog, évaluation de produits, publication de recherche technique…) afin de les réutiliser sur une autre plateforme. Cette technique s'apparente à du vol et sert généralement à détourner du trafic. Elle pénalise les éditeurs de site ayant investi de l'argent, du temps et bien d'autres ressources pour créer des articles à valeur ajoutée pour les utilisateurs.

Spamdexing de liens factices

Le spamdexing de liens factices englobe toutes les stratégies qui permettent de multiplier de façon non naturelle le nombre de backlinks pointant vers un site d'entreprise ou un blog.

Les fermes de liens

Ce sont des pages mises en place spécialement dans le but d'envoyer des backlinks vers d'autres sites. Le plus souvent, ces pages ne comportent aucune information à valeur ajoutée pour les utilisateurs. Ces sites ont pour seul but de manipuler le PageRank de Google.

Les spams de commentaires

Le spam de commentaires, que l'on appelle également spamco, consiste à ajouter sur des blogs ou des forums des commentaires non pertinents en y intégrant un lien afin d'obtenir un backlink vers un site web. La plupart du temps, les backlinks publiées mènent vers une page qui n'a aucun rapport avec le blog qui est victime de spam. Le spamco peut nuire à la réputation des sites qui en sont victimes et donc à leur SEO.

La création de liens automatique

Certains référenceurs utilisent des outils automatisés pour créer massivement des backlinks vers leur site. Ils s'appuient généralement sur des réseaux de sites satellites. Le rythme d'acquisition est loin d'être naturel et les backlinks créés sont souvent peu qualitatifs.

Bon à savoir : les moteurs ont beaucoup évolué au fil des années et peuvent désormais détecter facilement la plupart de ces stratégies SEO abusives. Des sanctions plus ou moins lourdes sont prévues dans chaque cas.

Quels sont les inconvénients du Spamdexing ?

Les inconvénients du spamdexing sont très nombreux et touchent principalement à l'expérience utilisateur et au fonctionnement des moteurs de recherche.

Empêche le bon fonctionnement des robots

Les pratiques de spamdexing sont pensées pour manipuler les bots des moteurs ou exploiter leurs failles. Par conséquent, elles sont un véritable obstacle pour le bon fonctionnement de ces algorithmes. Le SEO Black Hat empêche Google et les autres moteurs de remplir pleinement leur fonction principale qui est de fournir aux internautes les résultats les plus pertinents pour leurs requêtes.

Gêne l'expérience utilisateur

Le spamdexing ne permet pas à un site d'offrir une bonne expérience utilisateur. Bien au contraire, les textes créés à partir de cette technique de spam n'apportent souvent aucune valeur ajoutée aux internautes. Ils sont principalement utilisés pour générer du trafic afin de gagner de l'argent par l'affichage de publicités ou la vente de backlinks. Cela va bien évidemment à l'encontre des directives des moteurs de recherche qui indiquent clairement qu'un site ou une page web doit avant tout être utile aux internautes.

Par ailleurs, le spamdexing nuit à la qualité globale d'internet, car il favorise la prolifération du duplicate content et des Made for Adsense (plateformes créées uniquement pour afficher de la publicité Google Adsense).

Spamdexing : que risquent les sites utilisant ces techniques ?

Les webmasters qui intègrent le spamdexing à leur stratégie de marketing digital s'exposent à des pénalités algorithmiques ou manuelles. Google Panda et Google Penguin sont les deux filtres algorithmiques qui sanctionnent ce type de pratiques. Le premier pénalise les contenus de piètre qualité (duplicate content, textes générés automatiquement…) en leur faisant perdre de la visibilité ou en les désindexant totalement. Quant au second, il sanctionne les pratiques de netlinking abusives et provoque une perte de position des pages concernées dans les SERP.

L'équipe Search Quality Team de Google peut également sanctionner directement un site qui utilise du spamdexing. Comme l'a indiqué Matt Cutts dans une vidéo YouTube, ces actions manuelles peuvent prendre la forme d'une désindexation ou d'un déclassement.