Les bons tuyaux SEO

Référencement : quelles sont les mauvaises pratiques SEO à bannir ?

Article publié le 10 nov. 2021
Référencement : quelles sont les mauvaises pratiques SEO à bannir ?
  • Sommaire
  • Mauvaises pratiques SEO : c'est à dire ?
  • Mauvaises pratiques liées à l'aspect technique
  • Mauvaises pratiques liées au contenu
  • Mauvaises pratiques liées au netlinking

Les mauvaises pratiques SEO regroupent un ensemble de procédés d'optimisation qui ont pour but d'améliorer de façon frauduleuse le positionnement d'un site web sur Google afin de booster son trafic. Ces stratégies violent les directives du moteur de recherche. Il s'agit parfois d'actions non intentionnelles, mais qui nuisent quand même au référencement naturel des sites internet qui les utilisent. Dans ce guide, SEMJuice vous évoque ces techniques SEO et vous donne des conseils afin de les éviter.

Mauvaises pratiques SEO : c'est à dire ?

Le référencement naturel désigne l'ensemble des méthodes qui permettent de positionner favorablement un site internet sur les pages de résultats des moteurs de recherche (Google, Bing, Yahoo !). Il s'appuie sur trois principaux piliers :

  • L'aspect technique ;
  • Le contenu ;
  • Le netlinking.

Relativement à chacun de ses piliers, les moteurs de recherche, Google notamment, ont établi des directives pour aider les webmasters à optimiser convenablement leur site.

D'un autre côté, il y a certains procédés qui pénalisent les webmasters. Ce sont elles que l'on appelle communément « mauvaises pratiques SEO ». Elles prennent parfois la forme de techniques qui sont utilisées délibérément par des webmasters ou des référenceurs pour manipuler les algorithmes des moteurs. Cela s'appelle le Black Hat SEO. En d'autres termes, ce sont des procédés peu éthiques et désapprouvés. Il existe également des méthodes inappropriées qui ne sont pas forcément déployées de façon délibérée. Celles-ci découlent le plus souvent d'un manque de connaissance en SEO ou de la négligence des webmasters. Tout comme les procédés de Blackhat SEO, elles nuisent cependant à votre visibilité.

Mauvaises pratiques liées à l'aspect technique

L'aspect technique d'un site fait référence à son architecture, son arborescence, son design et aux éléments qui le font fonctionner. Les pratiques de référencement inappropriées pouvant être liées à ces différents éléments sont nombreuses.

Ne pas optimiser votre maillage interne

De nombreux webmasters ignorent l'importance du maillage interne pour le référencement de leurs sites web. Par conséquent, ils créent des liens internes de façon arbitraire, sans établir un plan bien défini. C'est une pratique pénalisante pour au moins trois raisons principales.

La difficulté de trouver des pages isolées

Tout d'abord, les liens internes sont les passerelles qui permettent aux crawlers de Google de naviguer d'une page à l'autre sur un site afin d'analyser les contenus qui y sont présents. Lorsque le maillage interne d'un site n'est pas correctement réalisé et qu'il y a de nombreuses pages profondes isolées, il peut ainsi être difficile pour les crawlers de les trouver. Ces ressources potentiellement qualitatives auront alors du mal à apparaître sur Google.

Un Jus de lien banalisé

Les liens internes servent également à transférer le jus SEO (les acquis de référencement) d'une page à une autre sur un même site. Ne pas en faire un bon usage revient donc à banaliser la répartition du Jus SEO qui est pourtant un élément fondamental pour bien référencer un site.

Une expérience utilisateur bafouée

Une dernière raison, et non des moindres, est que l'intégration de liens internes sert avant tout à garder les internautes sur un site en leur suggérant d'autres contenus intéressants. Par conséquent, lorsque le maillage interne est mal effectué ou n'est pas du tout réalisé, cela peut occasionner un manque à gagner important en matière d'expérience utilisateur (UX).

Des actions pour un meilleur maillage interne

Pour un meilleur référencement, il est préférable d'instaurer un vrai plan de maillage interne axé autour de quelques actions concrètes :

  • Créer les liens internes en respectant une cohérence sémantique ;
  • Ajouter systématiquement des liens internes vers vos nouveaux articles ;
  • Varier les textes d'ancrages ;
  • Multiplier les liens pointant vers les pages importantes ;
  • Créer des liens depuis les articles de blogs vers les pages produits (pour les sites d'e-commerce).

Si vous ne savez pas comment faire tout cela, SEMJuice est là pour vous aider. Vous pouvez consulter notre article dédié au maillage interne afin de définir les pages de votre site web à mailler en priorité.

Choisir un CMS non optimisé pour le SEO

Avec l'avènement des CMS gratuits, la mise en place et la gestion de blogs sont devenues très faciles. Il est cependant important de noter que tous ces sites libres pour la plupart ne sont pas parfaitement optimisés pour le référencement. Choisir un CMS qui n'est pas SEO-Friendly est très pénalisant pour votre site, car vous risquez d'être confronté à une multitude de problèmes : URL non optimisables, impossibilité de réaliser des redirections 301, mauvaise gestion des images, pas de possibilité de personnalisation des balises title…

Ces éléments étant critiques pour la réussite de votre référencement, il vaut mieux vous tourner vers les plateformes populaires connues pour leurs excellentes performances comme WordPress, Joomla ou encore Drupal.

Ne pas optimiser votre site pour mobiles et tablettes

Un site internet ne s'affiche pas de la même manière sur tous les appareils. En effet, l'affichage desktop est très différent de celui des appareils mobiles, que ce soit des smartphones ou des tablettes. Or, depuis quelques années, les internautes sont de plus en plus mobinautes. Selon le Digital Report 2021 publié par Hootsuite et We Are Social, on compte actuellement plus de 5,22 milliards de mobinautes dans le monde.

Face à cette montée en flèche de l'utilisation des appareils mobiles, Google et les autres moteurs ont mis à jour leur algorithme afin de favoriser dans les résultats de recherche (SERP) les sites internet dont le design est mobile Friendly. La firme de Mountain View a même annoncé en 2014 que la compatibilité mobile était désormais un critère de pertinence pour son algorithme. Dans un tel contexte, ne pas adapter votre site pour mobiles et tablettes est un frein pour sa visibilité sur la toile. Vos pages seront reléguées au second plan dans les SERP (au profit de celles adaptées pour mobiles), ce qui peut vous faire perdre une audience très importante.

Pour remédier à cela, vous devez faire appel à un développeur web afin de procéder à une refonte de votre site pour passer au responsive design. Votre nouveau site pourra ainsi s'adapter de façon optimale à tous les écrans et vous améliorerez votre référencement. Une autre option, très pratique pour les nouveaux projets, est le mobile first : la version mobile du site est développée en premier, avant son adaptation aux desktops. Ce type d'architecture permet d'obtenir un site internet minimaliste, intuitif et très facile à utiliser sur les petits écrans. Elle peut cependant ne pas être adaptée à certains projets.

Il est aussi important de veiller à ce que le contenu qui sera proposé aux utilisateurs mobiles ne soit pas différent de celui de la version desktop. Par exemple, il n'est pas conseillé de cacher du contenu textuel ou même multimédia (ce qui revient en réalité à proposer un contenu moins qualitatif et potentiellement moins pertinent pour la requête visée) aux mobinautes. Cela peut être pénalisant.

Ne pas accorder d'importance au temps de chargement des pages

Le temps qu'une page met à se charger complètement est une donnée fondamentale. En effet, selon certaines études, 57 % des utilisateurs quittent un site lorsque ce dernier met plus de 3 secondes à s'afficher. C'est un signal que les moteurs de recherche prennent très au sérieux. Ne pas accorder d'importance au temps de chargement de vos pages revient ainsi à envoyer un mauvais signal aux algorithmes de Google, ce qui peut plomber votre positionnement dans les SERP. Les recherches ont montré aussi qu'il existe un lien étroit entre le taux de conversion d'un site et son temps de chargement. Un retard de 100 millisecondes (soit 0,1 seconde) peut en effet faire chuter les conversions de 7 %.

L'idéal est donc d'améliorer la vitesse de chargement de votre site internet afin de rester sous la limite des 3 secondes recommandées. Pour y arriver, certaines actions sont indispensables :

  • L'activation de la mise en cache ;
  • Le passage à un hébergeur plus rapide si celui que vous utilisez actuellement n'offre pas d'excellentes performances (préférez un serveur dédié si votre site reçoit un trafic important) ;
  • La réduction des widgets et d'autres éléments dynamiques qui ralentissent le chargement des pages ;
  • La minification du code source ;
  • L'utilisation d'un Content Delivery Network pour mettre en cache votre site sur des serveurs localisés à différents emplacements du globe ;
  • L'optimisation des images.

En ce qui concerne ce dernier point, veillez à choisir un format adéquat. Le format PNG est en général le meilleur pour les illustrations qui contiennent des icônes, du texte ou un logo. Pour les autres images, vous pouvez opter pour le format JPG. Les formats à éviter à tout prix sont le TIFF et le BMP.

La compression des images est aussi importante pour leur optimisation. Il faut toutefois veiller à préserver l'intégrité des visuels en ne dépassant pas 60-70 % de leur taille originale, surtout pour les fichiers au format JPG.

Mauvaises pratiques liées au contenu

En référencement, le contenu est roi. C'est principalement sur la base de celui-ci que l'algorithme de Google établit le classement des sites dans les SERP. Conformément aux guidelines du moteur de recherche à l'endroit des webmasters, nous vous présentons les méthodes inappropriées d'optimisation de contenu pouvant plomber la visibilité d'un site.

Le bourrage de mots-clés (Keyword Stuffing)

Le bourrage de mots-clés désigne une utilisation excessive de certaines expressions clés dans un contenu (article de blog ou fiche produit) avec pour objectif d'augmenter artificiellement sa pertinence pour une requête donnée. C'est une très mauvaise pratique, car elle vise à manipuler les systèmes de classement des moteurs. Elle fait partie des techniques de Blackhat SEO interdites de façon formelle par Google.

Voici un exemple :

Notre agence digitale créative est la meilleure agence digitale créative de Paris. Dans notre agence digitale créative, nous proposons des services pour les particuliers et les entreprises. N'hésitez pas à faire appel à notre agence digitale créative…

Dans cet exemple, le mot-clé agence digitale créative est répété de façon excessive. Le texte n'est donc visiblement pas pensé pour un utilisateur en quête d'information, mais plutôt pour les bots qui ne savent analyser que des mots.

Les algorithmes de Google sont désormais très intelligents et savent distinguer un article rédigé à l'intention des utilisateurs d'un article bourré de mots-clés. C'est d'ailleurs pour lutter plus efficacement contre les plateformes qui s'adonnent à de telles actions illicites que le filtre algorithmique Panda a été lancé par le moteur de recherche en 2011. Désormais intégré de façon définitive à l'algorithme, ce filtre se charge d'identifier (en temps réel) les sites proposant un contenu de faible qualité et de les déclasser dans les SERP.

Pour éviter cela, il vaut mieux construire une stratégie de contenu axée autour de la satisfaction des internautes. L'utilisation des mots-clés doit se faire pour enrichir sémantiquement les articles afin de les rendre utiles au lecteur, et non pour manipuler les bots de Google. Même lorsque vous utilisez des outils d'optimisation sémantique, vous devez veiller à ce que vos contenus restent naturels. Après une analyse très précise, SEMJuice détermine avec vous les mots-clés pertinents qui serviront à rendre votre référencement le plus naturel et ainsi améliorer votre positionnement dans les résultats de recherche.

La dissimulation de contenu (Cloaking)

Une autre pratique de référencement dont Google a horreur est le Cloaking. Elle consiste à présenter ou faire afficher un contenu différent selon que le visiteur est un robot d'exploration ou un humain. La version présentée aux crawlers est le plus souvent optimisée avec beaucoup de mots-clés pour manipuler le classement. Une autre forme de cloaking old school est l'ajout de textes invisibles (textes écrits en blanc sur fond blanc, taille de police 0…) dans les contenus pour les rendre artificiellement qualitatifs.

Si ces procédés ont pu très bien fonctionner par le passé, les moteurs de recherche savent désormais les détecter et les sanctionnent de façon très sévère. Les pénalités (algorithmiques ou manuelles) peuvent toucher tout votre site ou les parties concernées par le cloaking.

Par conséquent, pour éviter de vous retrouver dans le collimateur de Google, assurez-vous que votre site affiche exactement le même contenu, quel que soit le visiteur. Pour faire cette vérification, il suffit de vous rendre dans Google Search Console et de tester vos URL via le menu : Inspection de l'URL. Si la capture d'écran qui vous est présentée diffère de la version à laquelle les utilisateurs ont accès, vous devez alors faire le nécessaire pour corriger cette situation.

La duplication de contenu (Duplicate Content)

Le duplicate content est l'action de copier partiellement ou intégralement un contenu déjà disponible à un emplacement du web pour le publier ailleurs. Il peut être interne (entre les pages d'un même site) ou externe (entre deux domaines différents). Il peut également être volontaire, ou involontaire de la part d'un webmaster. Quoiqu'il en soit, c'est une mauvaise pratique SEO, car elle n'apporte aucune valeur ajoutée aux visiteurs.

Lorsque l'algorithme de Google est en présence de contenus dupliqués, il choisit une seule version qu'il considère comme originale et relègue toutes les autres au second plan. Avoir beaucoup de textes dupliqués est ainsi mauvais pour votre référencement, car les crawlers vont passer beaucoup de temps sur votre site à analyser des ressources inutiles. Le budget de crawl qui aurait pu être utilisé à bon escient pour l'indexation de contenus uniques et à forte valeur ajoutée sera ainsi gaspillé. Le duplicate content fait aussi partie des pratiques SEO qui sont sanctionnées par Google Panda.

La meilleure approche pour améliorer votre SEO sans craindre ce type de problèmes est de créer des contenus uniques véritablement utiles aux utilisateurs. Si vous avez un site d'e-commerce, créez des fiches produit uniques pour chacune des déclinaisons de vos produits. Évitez surtout de réutiliser les descriptions des fabricants, car elles n'apporteront aucune valeur ajoutée à votre référencement.

Paraphraser des sites concurrents (Scraping)

Le scraping est une autre pratique illicite de création de contenus. Elle consiste à extraire à l'aide de programmes informatiques les contenus d'un site pour les réutiliser sur une autre plateforme (le plus souvent après une légère transformation). Il faut l'éviter à tout prix si vous ne souhaitez pas être sanctionné par Google. De plus, il existe un risque de poursuite judiciaire si le contenu scrapé est protégé par des droits d'auteur.

Pour éviter tout cela, basez votre rédaction de contenu sur la qualité, plutôt que la quantité. Choisissez des thématiques correspondant aux réelles préoccupations de votre audience et couvrez-les de façon originale. L'externalisation de la rédaction peut vous être utile dans ce sens. Vous pouvez passer par les services de notre équipe qui se chargera de trouver les meilleurs rédacteurs pour rédiger le contenu de votre site ou pour parler de votre entreprise.

Avoir des contenus pauvres et non qualitatifs

Alimenter votre site avec des contenus pauvres et non qualitatifs est l'une des pires erreurs que vous puissiez commettre en référencement. En effet, cela vous éloigne inévitablement des premières places dans les SERP, car les moteurs ne mettent en avant que les informations qualitatives. Un article peut être considéré comme pauvre et peu qualitatif lorsque :

  • Il est trop court et ne couvre pas suffisamment le sujet traité ;
  • Il ne répond pas à l'intention de recherche de l'internaute ;
  • Il comporte de nombreuses fautes de grammaire et d'orthographe ;
  • Il est difficilement compréhensible en raison d'une mauvaise structuration ;
  • Il contient des informations erronées.

Pour un meilleur référencement, il est important que vos contenus aient une certaine valeur ajoutée. Vous devez les enrichir d'un point de vue sémantique (en ajoutant des mots-clés pertinents) et les illustrer avec des images ou des vidéos. Quand la thématique s'y prête, il faut appuyer vos développements avec des chiffres ou des rapports d'études tout en prenant soin de citer vos sources. Durant tout ce processus, gardez à l'esprit le point le plus important : fournir les réponses les plus pertinentes et les plus concises possibles aux intentions de recherche.

Mauvaises pratiques liées au netlinking

Les méthodes inappropriées liées à l'acquisition de liens sont pour la plupart des procédés auxquels les référenceurs peu éthiques ont souvent recours pour manipuler le PageRank, l'algorithme de Google qui évalue la popularité des pages web.

Privilégier la quantité à la qualité

Il ne suffit pas de multiplier les liens pointant vers un site pour améliorer son positionnement dans les SERP. En effet, cette pratique de référencement était très répandue aux débuts des années 2000, lorsque les algorithmes de Google considéraient tous les liens comme étant égaux. Les référenceurs créaient alors massivement des liens vers leurs sites pour booster artificiellement le classement de ceux-ci dans les résultats de recherche.

Avec le temps, les algorithmes de Google se sont perfectionnés et le moteur de recherche affecte désormais à chaque lien entrant d'un site une valeur qui dépend de plusieurs critères : provenance, textes d'ancrage, pertinence thématique… La firme californienne a également lancé le filtre algorithmique Pingouin afin de lutter contre les sites recevant des quantités massives de backlinks peu qualitatifs. Par conséquent, la multiplication des liens à outrance n'est plus aujourd'hui une méthode efficace. Bien au contraire, elle peut vous valoir des pénalités sévères.

Pour éviter cela, privilégiez toujours la qualité des liens à leur quantité. Le plus important n'est pas d'obtenir un grand nombre de backlinks vers votre site, mais plutôt d'obtenir des backlinks qualitatifs qui vous apporteront de la popularité. Pour y arriver, les stratégies que vous devez privilégier sont l'achat de liens (via des sites internet fiables), la rédaction d'articles invités, et dans une certaine mesure la publication de liens sur des annuaires populaires.

Suroptimiser vos ancres de liens

Suroptimiser vos ancres de liens fait partie des actions qui peuvent vous valoir une pénalité Pingouin. À l'instar de toutes les autres stratégies Black hat, elle vise à tromper Google. Au lieu de recourir à ce procédé interdit, privilégiez plutôt des ancres de liens qui intègrent naturellement vos mots-clés principaux. Veillez également à varier vos ancres pour ne pas utiliser tout le temps le même texte. Alternez entre ancres exactes, ancres neutres, ancres de type nom de domaine…

Il est donc conseillé de privilégier des liens naturels et des ancres variées si vous souhaitez améliorer votre référencement dans les règles de l'art. SEMJuice vous aide dans ce domaine-là en vous proposant une stratégie adaptée et sur mesure afin de vous permettre d'améliorer votre référencement et ainsi être mieux classé dans les moteurs de recherche.

Demandez une analyse et un devis gratuit pour une stratégie de netlinking

SEMJuice vous propose des solutions clés en main

Restez informés de l’actu SEO et de nos news