publié le 13 sept. 2021
Index

Définition SEO de Index

L'index d'un moteur de recherche fait référence au système qui lui permet de stocker les pages de chaque site web que ses robots parcourent afin d'avoir une copie de la toile à un instant T. Lorsqu'un internaute lance une recherche, c'est à partir des ressources se trouvant dans l'index qu'une page de résultats est générée.

Définition de Index

L'un des éléments les plus importants au sein de l'infrastructure de Google est son index. Il fait partie des ressources dont dépend directement l'affichage des pages de résultats.

Qu'est-ce que l'Index des moteurs de recherche ?

En informatique, un index est une base de données organisée suivant une structure particulière et qui permet à un système de gestion de données de retrouver rapidement des fichiers ou des documents spécifiques en temps voulu.

C'est exactement la même chose dans l'univers du référencement SEO. L'index des moteurs de recherche fait référence à un répertoire de pages web stocké sur des serveurs à un instant T. C'est de ce répertoire que les résultats sont tirés lorsqu'un internaute lance une requête en tapant des mots-clés dans le champ de recherche.

Tous les principaux moteurs de recherche sans exception (Yahoo!, Bing, Google) possèdent un index dans lequel une copie du web est stockée. Celui de Google est le plus vaste avec plusieurs centaines de milliards de pages individuelles et une taille dépassant 100 millions de Giga-octets.

À quoi sert l'Index ?

Pour illustrer ce à quoi sert un index, prenons l'exemple d'une grande bibliothèque où les œuvres sont cataloguées et rangées par thème, par auteur et par titre. Avec une telle organisation (indexation), trouver un livre dont on connaît les références sera facile et rapide. Il suffira de se diriger vers le bon rayon pour identifier le document recherché.

Le principe est le même pour l'index de Google. Il permet aux robots chargés de générer les pages de résultats en réponse aux requêtes des internautes de trouver rapidement des informations utiles et pertinentes au sujet d'une requête ou d'une expression clé. Sans cette copie du web, le temps de recherche sur la plateforme serait significativement plus long.

De plus, l'existence d'un index comportant des données à jour permet au moteur de recherche d'éviter de gaspiller constamment des ressources pour savoir ce que contient chaque page du web. Le travail est fait à l'avance pour chaque document crawlé, ce qui fluidifie le processus.

L'index de Google lui permet également d'identifier rapidement les nouvelles informations qui ont été ajoutées au contenu d'un site et de les intégrer automatiquement. Pour cela, il suffit pour les robots du moteur de recherche de confronter la version du site qui est stockée dans l'index et celle qui est effectivement disponible en ligne.

Comment fonctionne l'Index des moteurs de recherche ?

Le processus d'indexation qui permet aux moteurs de recherche d'ajouter des pages web à leur base de données se décline en trois étapes :

  • Le crawl des pages web à travers internet
  • La copie des contenus des sites explorés
  • Le stockage des informations sur des serveurs

Crawl des robots d'exploration

Le crawl désigne la phase durant laquelle le web est exploré par un robot d'indexation. Lorsque ce dernier arrive sur une page, il suit tous les liens qui s'y trouvent afin de découvrir au fur et à mesure de nouvelles ressources à indexer. C'est Googlebot qui s'occupe de cette mission pour Google. Il parcourt constamment les pages web sur la toile et revient périodiquement sur les sites déjà indexés pour les explorer à nouveau.

Ce mécanisme se déroule dans la limite du budget de crawl (nombre de pages web maximal pouvant être exploré) de chaque site internet. Le budget de crawl est déterminé par le robot de Google en fonction d'un certain nombre de critères : performances du serveur qui héberge le site, profondeur de son arborescence, fréquence de mise à jour… Pour ne pas gaspiller votre budget crawl, il est conseillé d'éviter certaines pratiques telles que le contenu dupliqué. Ce conseil s'adresse surtout aux gestionnaires de sites de e-commerce.

À noter que Googlebot n'est pas un seul robot, mais bien un ensemble de bots dédié à l'exploration des sites web et à l'analyse de leur contenu. On les appelle également crawlers ou spiders. Grâce à ses nombreux robots d'indexation, Google a une puissance de crawl estimée à plusieurs dizaines de milliards d'URL par jour.

Copie des contenus

Au fur et à mesure que les robots de Google suivent les liens présents sur les pages web, ils effectuent un travail de copie automatique. Ils récupèrent le code HTML de chaque page et le transmettent au moteur de recherche. Ce code contient tous les éléments dont le système de traitement de Google a besoin pour faire une catégorisation du contenu de chaque document indexé et saisir son sens.

Stockage des contenus dans les serveurs

Toutes les données récupérées par les spiders de Google sont stockées sur des millions de serveurs répartis dans plus d'une vingtaine de datacenters situés en Amérique, en Europe et en Asie : Mountain View (Californie), Dublin (Irlande), Pékin (Chine)… Ces serveurs sont actifs en permanence et fonctionnent de façon coordonnée.

Note : l'index des moteurs de recherche ne représente qu'une partie du web. De nombreuses pages non indexables ou tout simplement inaccessibles aux robots d'exploration n'y figurent pas ! Il s'agit du fameux deep web et des réseaux dark web.

Les Index de Google

Depuis 2003, Google utilise 2 index pour stocker le contenu des sites qui ont été explorés par ses robots. L'un d'entre eux est un index principal et l'autre est secondaire.

L'index principal

C'est dans l'index principal de Google que se trouvent les pages web les plus qualitatives. Lorsqu'un internaute lance une requête, les résultats de recherche sont systématiquement tirés de cette base de données premium de Google.

L'index secondaire

Cet index de Google contient les pages web dont la qualité du contenu n'est pas très bonne. C'est ici que se trouvent les pages proposant du contenu dupliqué et celles que le moteur considère comme étant de second choix. Bien qu'elles soient indexées, ces pages web n'apparaissent pas systématiquement après une recherche Google. Pour les faire afficher, les internautes doivent d'abord appuyer sur « Relancer la recherche pour inclure les résultats omis » en bas de la SERP.

Vous avez donc tout intérêt à éviter de vous retrouver dans cet index secondaire si votre souhait est d'optimiser le référencement naturel de votre site web pour avoir de la visibilité sur Google. Les contenus que vous proposez sur les pages de votre site doivent être originaux et qualitatifs.

Le rafraîchissement de 2010

Dans le souci de s'adapter au mieux à l'évolution de la toile, Google a lancé en 2010 Caffeine, un projet de renouvellement de son système d'indexation. Cette mise à jour majeure a eu plusieurs effets sur l'index du moteur de recherche et son fonctionnement. Premièrement, elle a fortement augmenté les capacités d'indexation des robots de la plateforme. Le nombre de pages web qui pouvaient être indexées chaque seconde est devenu plus important.

Deuxièmement, le mode de traitement des pages web de l'index de Google est passé d'un système de couche à un procédé plus élaboré grâce auquel chaque page est traitée individuellement. Cela a nettement amélioré la fraîcheur des résultats. Désormais, lorsque Google indexe un contenu, il peut immédiatement apparaître dans la SERP s'il est jugé pertinent pour une requête.

Par ailleurs, depuis quelques années, Google a mis en place l'Index mobile first qui est une nouvelle façon de crawler les pages web. L'indexation mobile first donne notamment la priorité à la version mobile des sites internet plutôt qu'à leur version desktop. Elle vise à offrir la meilleure expérience de navigation possible aux internautes qui sont de plus en plus orientés vers la recherche mobile.

Index Google : comment indexer votre site web ?

Pour apparaître dans la SERP de Google, votre site web doit être présent dans son index. Voici quelques actions que vous pouvez mettre en œuvre pour accélérer le processus d'indexation de votre contenu par Googlebot.

Forcer l'indexation via la Google Search Console

Il est possible de forcer l'indexation d'un site web via la Google Search Console, anciennement Google webmaster tools. Pour cela, il suffit de créer un sitemap (plan de site) de type XLM et de le faire parvenir au moteur de recherche via l'interface de l'outil : Index > Sitemaps. En général, l'indexation démarre sous un délai de 24 h après la soumission du sitemap dans la Google Search Console. Rien n'est cependant garanti.

Intégrer des backlinks depuis des sites d'autorité

Le moyen le plus simple et le plus pratique de faire indexer votre site web par Google est d'obtenir des backlinks (liens entrants) depuis des sites à fort PageRank. Puisque ces domaines sont généralement crawlés de façon régulière, la probabilité que les robots du moteur de recherche découvrent rapidement votre site web est élevée. De plus, avoir des liens entrants de qualité est positif pour votre référencement naturel, car c'est un gage de crédibilité aux yeux de Google.

Pour mener à bien vos campagnes de liens, la meilleure solution est de faire appel à une agence de netlinking comme SEMJuice. Vous aurez ainsi accès à un large catalogue de sites d'autorités sur lesquels vos liens entrants seront publiés. Vous bénéficierez également d'une stratégie de liens entièrement naturelle qui n'exposera pas votre site à des pénalités algorithmiques ou manuelles.

Demandez un audit et un devis gratuit pour une stratégie de netlinking