publié le 13 sept. 2021
Budget de Crawl

Définition SEO de Budget de Crawl

  • Sommaire
  • Qu'est-ce que le Budget de Crawl ?
  • Comment optimiser votre Budget de Crawl ?

Le budget de crawl ou « crawl budget » représente le nombre de pages limites que Googlebot va crawler sur un site web lors de chaque passage. Comment fonctionne ce budget de crawl ? À quoi sert-il pour le référencement naturel de votre site ? Et comment l'optimiser pour rendre plus efficace l'activité des robots d'indexation sur votre plateforme en ligne ?

Qu'est-ce que le Budget de Crawl ?

Pour proposer des résultats qui soient pertinents et tirés des contenus récents en réponse aux demandes des internautes, Google est amené à renouveler continuellement son index. Ses robots d'exploration parcourent le web et recensent les nouvelles informations pour les rajouter à son répertoire. Pour optimiser le fonctionnement de ces algorithmes, le moteur de recherche accorde à chaque site un budget de crawl.

Définition du Crawl Budget

En SEO, le terme « budget de crawl » correspond aux ressources allouées par un moteur de recherche pour explorer et indexer les contenus d'un site internet. Il s'agit du volume de pages maximal qu'un spider va explorer sur un site pendant une période donnée. C'est en quelque sorte le taux limite de crawl accordé à chaque plateforme en ligne : le nombre de pages que Googlebot parcourt et sauvegarde en même temps lorsqu'il passe sur votre site.

Quelle est l'utilité du Budget de Crawl en référencement ?

Pour classer les sites dans sa SERP (search engine result page) Google évalue principalement les données enregistrées par son robot lors de son passage sur chaque plateforme web.

Pour mieux comprendre comment cela fonctionne, prenons l'exemple d'une plateforme e-commerce comptant plusieurs centaines de pages. Avec une faible ressource de crawl, certaines pages du site peuvent ne pas être analysées et enregistrées, malgré la qualité du contenu qu'elles proposent. Ce manque d'exploration aura un impact négatif sur le potentiel de la plateforme en termes de référencement naturel. L'algorithme de classement ne tiendra pas compte des pages non indexées dans le processus du positionnement au sein des résultats de recherche.

Dans ce contexte, le budget de crawl constitue un enjeu très important dans l'optimisation SEO. Grâce à un taux d'exploration optimum, votre site aura plus de chances d'être indexé efficacement et rapidement.

Quels sont les critères d'exploration ?

Lorsqu'il s'agit de définir la quantité de ressources qu'il faut accorder à un site pour analyser et indexer ses pages, les moteurs de recherche (Google, Bing, Yahoo!) tiennent compte de plusieurs paramètres. Parmi ces principaux critères figurent :

  • Le temps de réponse du serveur
  • La profondeur des liens internes
  • La régularité des mises à jour
  • La qualité des informations proposées

La vitesse de chargement du site

Ce critère est sans doute l'un des aspects les plus importants qu'un crawler prend en compte pour déterminer son taux de passage sur un site internet. Il s'agit du temps mis par le serveur d'hébergement pour répondre à la demande de l'internaute. Sur ce point, Google accorde plus de crédit aux sites qui bénéficient d'un temps d'affichage optimal (maximum 3 secondes). Aux yeux de son algorithme, une plateforme qui s'affiche très rapidement offre une bonne expérience utilisateur et mérite d'être mieux crawlée. Ainsi, si votre site s'affiche très rapidement, Googlebot et ses homologues des autres moteurs y passeront plus souvent.

La profondeur de votre site web

En dehors du temps de réponse du serveur, la profondeur des URL impacte également le taux de crawl que les robots d'indexation accordent à chaque site. Ce concept renvoie au nombre de clics nécessaire pour accéder à un document, en partant de la page d'accueil. La position des moteurs sur le sujet est assez simple : plus il faut de clics pour consulter une page, moins celle-ci aura de chances d'être explorée.

La fréquence de mise à jour

La mission principale des robots d'indexation, c'est de parcourir toutes les plateformes en ligne pour collectionner les nouvelles informations afin de nourrir leur index. Pour atteindre cet objectif, ils accordent la priorité aux sites qui s'alimentent régulièrement avec de nouvelles publications. Ainsi, lorsque vous mettez votre site à jour de façon régulière, cela attire l'attention des spiders qui conclurent que ce dernier mérite d'être fréquemment et longtemps analysé.

La qualité de votre contenu

Sur Google, la qualité du contenu n'est pas seulement un critère de classement. Elle intervient aussi au niveau du budget que le moteur accorde aux sites pour explorer et indexer leurs pages. En proposant du contenu qualitatif unique et pertinent sur votre site de façon régulière, ce dernier sera crawlé plus souvent.

Comment optimiser votre Budget de Crawl ?

Vous souhaitez optimiser votre budget de Crawl pour bénéficier d'une exploration régulière de la part des robots et spiders ? Que ce soit pour Googlebot, Bingbot ou Slurp, il existe plusieurs axes d'optimisation que vous devez travailler pour répondre aux critères d'exploration des crawlers. Il vous faudra notamment :

  • Améliorer le temps de réponse du serveur
  • Publier régulièrement des articles qualitatifs
  • Éviter les contenus dupliqués
  • Mettre en place une stratégie efficace de netlinking

Améliorer la vitesse de chargement de vos pages

La première étape pour optimiser votre budget de crawl, c'est d'améliorer la vitesse d'affichage de votre site. Pour cela, il est recommandé de choisir la meilleure solution d'hébergement en fonction de vos objectifs de marketing et de la taille de votre site. Si vous disposez par exemple d'un site vitrine simple, avec peu de pages, un service d'hébergement mutualisé peut vous offrir la performance web que vous espérez. Cependant, dans le cas d'un site e-commerce avec plusieurs centaines de pages, l'idéal sera de vous orienter vers un serveur dédié ou VPS, afin de bénéficier de meilleures performances d'affichage.

En plus de souscrire à une solution d'hébergement efficace, il faudra également effectuer une optimisation technique du site pour réduire son temps de chargement. Ce travail technique consiste à améliorer les capacités d'affichage de la plateforme à travers :

  • L'utilisation d'une mise en cache
  • La compression des médias
  • L'optimisation de code CSS, HTML et JavaScript
  • L'utilisation d'un CDN (Content Delivery Network)

Renforcer le maillage interne de votre site

Il s'agit ici de rendre votre site simple et intuitif en optimisant sa structure et son arborescence. Pour cela, vous devez travailler la profondeur des URL qui relient les différentes sections de votre site. Le principe est simple : placer les pages les plus importantes en haut de l'architecture du site pour qu'elles soient facilement accessibles pour le spider de Google et pour vos visiteurs. Pour rendre ce travail plus efficace, vous pouvez également créer un sitemap XML, pour indiquer au robot quelles sont les pages qu'il doit crawler lors de son passage sur votre site. Cela vous aidera à concentrer les ressources allouées par les moteurs sur les contenus les plus intéressants pour votre référencement naturel SEO. Votre budget de crawl s'en trouvera optimisé, puisqu'il sera mieux dépensé.

Cependant, veillez à ne pas inclure les URL non indexables et celles qui renvoient des codes d'erreurs (3XX, 4XX et 5XX) dans votre sitemap XML. De plus, en cas de nouvelle publication, vous devez mettre votre sitemap à jour en rajoutant l'URL de la page concernée.

Publier du contenu de qualité, mis à jour régulièrement

Pour pousser les spiders de Google à augmenter leur fréquence de passage sur votre site, vous devez publier régulièrement du contenu qualitatif. C'est l'un des points les plus importants pour augmenter votre budget de crawl. Chaque fois que vous publiez un nouveau document, Googlebot trouve de nouvelles informations à indexer lors de son passage. Ainsi, plus vos nouvelles publications sont fréquentes, plus le spider sera poussé à revenir régulièrement sur votre site, ce qui aura un impact positif sur votre budget de crawl.

Éviter le contenu dupliqué, aussi appelé duplicate content

Pour réussir sur la toile, avoir un budget de crawl optimal est une chose, mais la façon dont cette ressource est dépensée en est une autre. En proposant plusieurs pages en double (ou similaires) sur votre site, votre budget de crawl risque d'être gaspillé. Le spider de Google passera son temps à explorer le même contenu à plusieurs reprises. En plus d'affecter négativement votre budget de crawl, cela peut entraîner la relégation de votre site dans les SERP.

Éviter les « Erreurs 404 » sur vos pages

En SEO, la page 404 s'affiche lorsque l'internaute tente d'accéder à un document qui n'existe plus, mais dont l'URL est toujours disponible. Il s'agit donc d'une page inexistante. Lorsque les spiders de Google tentent d'analyser ce type de pages, cela entraîne généralement une erreur d'exploration, puisque les liens en question ne mènent à aucun contenu. Pour éviter que votre budget de crawl soit dépensé inutilement sur ces liens sans ressources correspondantes, il est important de les corriger. Pour cela, vous pouvez analyser vos URL via la Search Console de Google. En cas d'éventuelle présence d'URL 404, vous pouvez les corriger en créant des redirections vers des pages équivalentes ou similaires.

Mettre en place des backlinks de qualité

En plus des différents points précédemment développés, la popularité et le netlinking sont aussi importants pour augmenter votre budget de crawl. En effet, les sites ayant des backlinks populaires et efficaces ont tendance à être explorés plus souvent par les spiders de Google. Ainsi, lorsque vous disposez de plusieurs liens entrants pertinents et qualitatifs, il est possible de bénéficier d'un taux de crawl plus important. Pensez donc à optimiser votre stratégie de netlinking en créant des liens efficaces pour augmenter votre autorité de domaine.

Pour vous accompagner dans cette quête de backlinks qualitatifs, notre agence de référencement SEMJuice se propose de vous accompagner avec des campagnes de netlinking sur mesure. Avec plus de 10 000 sites partenaires, nos experts et consultants SEO créeront pour vous des liens thématisés avec des ancres parfaitement optimisées pour renforcer efficacement la popularité de votre site sur les principaux moteurs de recherche.

Je souhaite être accompagné gratuitement !

SEMJuice vous propose des solutions clés en main