publié le 13 sept. 2021
Bingbot

Définition SEO de Bingbot

Bingbot, également appelé MSNbot, est le robot d'exploration (spider) du moteur de recherche Bing, créé par Microsoft. À l'instar de Googlebot qui explore la toile pour Google, Bingbot crawl le web à la recherche de nouvelles informations pour nourrir l'index de Bing. Comment fonctionne ce spider ? Et quels sont les critères SEO essentiels pour être indexé par ce robot ? Voici tout ce que vous devez savoir sur le crawler de Bing pour optimiser votre référencement naturel sur ce moteur de recherche.

Comment fonctionne le robot d'exploration Bingbot ?

Comme tous les spiders, Bingbot a pour objectif d'explorer le web pour recueillir et répertorier les nouveaux contenus, afin de maintenir l'index de son moteur de recherche à jour. Pour cela, il parcourt toute la toile et explore chaque URL en suivant le concept de la théorie des graphes.

Utilisation de la théorie des graphes

La théorie des graphes est une branche des mathématiques utilisée par les moteurs de recherche dans le processus d'exploration et d'indexation des sites. Cette théorie décrit chaque site internet comme un arbre, avec une racine ou un répertoire racine qui représente le chemin d'accès (l'URL principale) vers son contenu. Les branches qui s'élèvent de cette racine représentent les liens hypertextes qui relient les différentes pages du site entre elles.

Ainsi, lorsque le bot de Bing arrive sur un site, il lit son contenu, analyse les images et explore les liens présents dans le document. Ensuite, il poursuit son chemin à travers chaque branche de l'arbre et enregistre toutes les données qu'il recueille pour les transférer au moteur de Microsoft. Celles-ci seront stockées, triées et indexées par des algorithmes, pour fournir des résultats pertinents aux requêtes effectuées sur Microsoft Edge.

Googlebot vs Bingbot

Lancée en octobre 2010, la fonction du Bingbot sur Bing est la même que celle exercée par Googlebot sur Google. Ce sont tous les deux des spiders, ayant pour mission d'analyser le web pour trouver de nouvelles pages à rajouter aux répertoires de leurs moteurs de recherche respectifs. La seule différence, c'est que Googlebot est beaucoup plus efficace et plus rapide que son concurrent. C'est en partie ce qui fait de Google le leader actuel des moteurs de recherche, devant Bing qui occupe la deuxième place du podium.

Quels sont les critères SEO essentiels pour être indexé par Bingbot ?

Vous souhaitez accéder à la première place dans les SERPs (search ingine result pages) sur Bing ? Pour atteindre votre objectif, vous devez optimiser votre site pour le passage de son spider. Pour cela, il faudra notamment :

  • Autoriser le spider à accéder à votre site
  • Créer et tenir à jour votre plan de site
  • Privilégier les liens naturels et de qualité
  • Éviter le keyword stuffing
  • Proposer et tenir à jour du contenu unique et qualitatif

Autoriser l'accès de votre site à Bingbot via le fichier Robots.txt

Pour qu'un site internet soit répertorié sur l'index Bing, le crawler doit d'abord accéder à son contenu. Pour cela, il ne suffit pas d'héberger vos documents HTML sur un serveur en ligne. Pour éviter que vos données à usage privé se retrouvent sur la toile, vous devez autoriser l'accès uniquement aux documents que vous jugez accessibles au grand public. Ceci se fait via l'outil robots.txt. Il s'agit d'un fichier texte qui permet de spécifier au spider quelle page explorer durant son passage sur votre site. L'idée, c'est de guider MSNbot vers les pages qui ont le plus de valeur pour votre référencement naturel. Cela permet d'exclure les contenus obsolètes et peu qualitatifs du processus d'indexation.

Pour utiliser ce fichier, il suffit d'ajouter la commande Disallow, qui permet d'interdire au spider d'explorer une URL ou un dossier. Par exemple, pour bloquer l'indexation de votre page de produits, dont l'URL est http://www.votre-site.com/page-de-produits.php, votre fichier robots.txt doit inclure l'instruction suivante :

  • User-Agent: Bingbot
    Disallow: /page-de-produit.php

L'avantage, c'est qu'il est désormais possible de tester l'efficacité et le fonctionnement de votre document robots.txt en utilisant l'outil Bing Webmaster Tools proposé par Microsoft. Cela permet d'éviter les erreurs qui peuvent survenir au moment de définir l'user-agent ou au niveau de l'URL de la page concernée.

Mettre en place et tenir à jour votre Sitemap

Lorsqu'il s'agit de crawler et d'indexer les sites, le sitemap est d'une grande importance. Il s'agit d'un fichier qui permet au bot de comprendre rapidement la structure du maillage interne d'une plateforme en ligne. C'est en quelque sorte un plan de site indiquant les URLs que vous souhaitez voir crawlées. Ce fichier est généralement conseillé pour les sites ayant un gros volume de pages. En effet, il permet au spider d'identifier rapidement les contenus à répertorier, ce qui évite tout éventuel gaspillage du temps de crawl.

Privilégier les liens naturels et de qualité

Les liens sont les principaux éléments qui permettent aux crawlers de réussir l'indexation d'un site. À ce titre, Bing recommande aux webmasters d'utiliser des liens naturels et qualitatifs. Plus vos URLs sont naturelles, plus vous facilitez la tâche pour le spider et plus vous gagnez la confiance du moteur. Évitez donc de créer des URLs factices ou artificielles obtenues par achat ou par échange de liens.

Pour vous assurer que vos pages ne contiennent pas ce type d'adresses, vous pouvez effectuer une analyse complète de votre site en utilisant la fonctionnalité Link Explorer de l'outil Bing Webmaster Tools. Si cette analyse révèle la présence d'URLs factices dans vos contenus, l'idéal sera d'utiliser une balise meta-robots avec l'instruction « nofollow » pour empêcher leur exploration.

Limiter le nombre de pages web

Pour optimiser un site pour le passage de son bot, Bing recommande également de limiter le nombre de pages à un volume raisonnable. Ce critère est similaire à la profondeur des URLs sur Google. En effet, plus un site est volumineux, plus le nombre de clics nécessaires pour accéder à certaines pages à partir de l'accueil est élevé. Et lorsqu'une page est trop éloignée, il y a très peu de chances qu'elle soit indexée, même si elle propose des informations qualitatives. Ce qui n'est pas avantageux pour votre référencement naturel.

Éviter le bourrage de mots-clés

Le bourrage de mots-clés est une technique de black hat SEO qui consiste à suroptimiser une page web. L'idée derrière cette pratique est assez simple : insérer une quantité démesurée de mots-clés dans une page pour influencer son classement dans les résultats de recherche. Sur Bing, cette pratique appelée keyword stuffing est considérée comme une violation des guidelines SEO. Ainsi, lorsque MSNbot détecte la présence d'une accumulation de mots-clés, il réduit systématiquement sa fréquence de passage sur le site concerné.

Proposer du contenu SEO unique, frais et de qualité

Comme l'annonçait Fabrice Canel, directeur de l'équipe de recherche et d'indexation de Bing, au salon Pubcon en octobre 2019, Bingbot est devenu officiellement Evergreen. Cela signifie tout simplement que le spider donne désormais la priorité aux contenus frais, uniques et persistants. Ainsi, au moment de crawler votre site, si le bot détecte des informations obsolètes ou dupliquées (en interne ou en externe), celles-ci risquent de ne pas être prises en compte. Ce qui consume inutilement votre budget de crawl.

Pour optimiser votre site pour le passage de ce crawler, pensez donc à proposer un contenu bien hiérarchisé qui ne va pas se périmer dans le temps. Si cette méthode evergreen ne s'adapte pas à votre ligne éditoriale, il sera nécessaire de maintenir votre contenu frais en faisant des mises à jour régulières. En effet, plus votre document web est à jour, plus vous avez de chances d'être indexé. Ce qui est indispensable pour optimiser votre référencement naturel.

En plus de ces différentes techniques, il est également recommandé de soumettre votre site sur Bing Webmaster Tools, afin d'être informé en cas d'éventuel problème. Cela vous aidera à corriger très rapidement les erreurs afin de maintenir un bon trafic organique et une bonne visibilité sur Bing.