Le 11 septembre dernier, le milieu SEO s’est affolé. Ce jour-là, Google a discrètement désactivé le paramètre &num=100, une fonctionnalité technique utilisée depuis des années par les professionnels du référencement pour afficher 100 résultats de recherche par page au lieu des 10 habituels.
Derrière cette modification apparemment anodine se cache en réalité une bataille stratégique majeure entre Google et les intelligences artificielles génératives comme ChatGPT ou Perplexity.
Une modification technique aux conséquences majeures
L’effondrement des impressions dans Google Search Console
Les premiers signes de ce changement sont apparus dans les données Google Search Console (GSC) de milliers de sites web.
Sébastien Billard, expert SEO reconnu, a documenté une « baisse sensible des impressions (surtout sur le desktop) et une hausse de la position moyenne » depuis le 11 septembre.
Sébastien Billard, expert SEO reconnu, a documenté une « baisse sensible des impressions (surtout sur le desktop) et une hausse de la position moyenne » depuis le 11 septembre.
Cette corrélation temporelle parfaite entre la désactivation du paramètre et l’évolution des métriques GSC ne peut pas être une coïncidence.
Paul Grillet, consultant SEO, observe que ce « phénomène mondial » touche aussi bien les États-Unis que l’Allemagne ou les Pays-Bas, avec des caractéristiques similaires :

Capture d’écran GSC du 11 septembre 2025
Cette stabilité du taux de clic suggère que les impressions précédemment comptabilisées n’étaient pas générées par de vrais utilisateurs.
Un impact direct sur les outils de rank tracking
Les conséquences pour l’industrie des outils SEO sont immédiates et coûteuses. Brodie Clark, analyste SEO australien, explique que cette modification « a le potentiel d’augmenter le coût de récupération d’un seul résultat par 10 » pour les fournisseurs de données de positionnement .
Les outils qui récupéraient auparavant 100 positions en une seule requête doivent désormais effectuer 10 requêtes distinctes pour obtenir les mêmes informations.
Cette multiplication des coûts techniques se répercutera inévitablement sur les tarifs des solutions de suivi de positionnement, impactant directement le budget des agences SEO et de leurs clients.
La véritable motivation : protéger Google de ses concurrents IA ?
Une guerre économique déguisée en modification technique
Aurélien Bardon, fondateur d’Oseox, apporte l’éclairage le plus pertinent sur les motivations réelles de Google. Dans son analyse, il explique que :
« Les LLM tels que ChatGPT ou Perplexity utilisent les données de Google afin de découvrir de nouvelles URL, répondre de manière plus pertinente et obtenir des données fraîches ».
Cette dépendance s’explique par une réalité économique évidente : pour les IA génératives, s’appuyer sur l’infrastructure existante de Google représente un coût bien inférieur à celui du développement et de la maintenance d’un moteur de recherche complet avec l’index associé.
Elliott Bobiet, organisateur du SEO Summit, précise l’ampleur de cette dépendance :
« Les moteurs génératifs n’ont pas la puissance d’indexer 400 milliards de pages comme Google. Imaginez le coût énergétique pour crawler 4 milliards de documents par jour et maintenir un index à jour sur les requêtes d’actualité ».
Les IA génératives préfèrent donc « utiliser l’infrastructure Google puis traiter les résultats avec leurs algorithmes. »
Google refuse de nourrir ses concurrents
La logique business de Google devient évidente : pourquoi faciliter l’accès à ses données à des concurrents directs de Gemini ? Comme le souligne Aurélien Bardon, « Google n’a aucune raison de donner gratuitement sa data et son savoir-faire à ses concurrents ».
Cette guerre des données révèle une réalité stratégique fondamentale : les IA génératives dépendent entièrement de l’infrastructure de recherche traditionnelle pour leurs sources d’information fraîches.
Nous rappelons que cette stratégie défensive s’inscrit dans un contexte juridique particulier. En août 2024, le juge fédéral Amit Mehta a rendu un verdict historique qualifiant Google de « monopoliste » dans une décision de 277 pages . Le Department of Justice a démontré que Google avait violé les lois antitrust en monopolisant les marchés de la recherche en ligne . Plus récemment, en septembre 2025, bien qu’un juge fédéral ait refusé de contraindre Google à céder Chrome, l’entreprise s’est vue interdire de conclure des accords exclusifs pour faire de son moteur de recherche le choix par défaut .
Dans ce contexte de surveillance antitrust renforcée, restreindre l’accès aux données devient une stratégie défensive cruciale. Comme le souligne l’analyse du Brookings Institute, cette situation « démontre le besoin de réviser la politique de concurrence pour l’ère de l’IA » .
Google doit désormais naviguer entre la protection de ses intérêts commerciaux et le respect des injonctions judiciaires.
Remise en question du « Great Decoupling »
Une théorie SEO à reconsidérer
L’un des effets les plus surprenants de cette modification concerne la remise en question d’une théorie SEO majeure. Brodie Clark s’interroge : « Le ‘Great Decoupling’ que beaucoup d’entre nous avons pris pour acquis, était-il plutôt lié à l’augmentation excessive du scraping par les outils SEO ? » .
Cette théorie du découplage, qui observait une augmentation des impressions sans hausse proportionnelle des clics, pourrait en réalité s’expliquer par le gonflement artificiel des métriques GSC causé par les outils automatisés.
Paul Grillet développe cette « hypothèse dominante » :
« De nombreux outils SEO et scrapers chargeaient systématiquement 100 résultats par requête. Chaque résultat chargé compte comme impression en GSC, même s’il n’était pas vu par un humain ».
Des données GSC plus fiables ?
Cette « purification » des données pourrait paradoxalement améliorer la fiabilité de Google Search Console. En supprimant les impressions artificielles générées par les outils, Google offre potentiellement aux webmasters une vision plus réaliste de leurs performances réelles. Cependant, cette transition brutale complique l’analyse des tendances historiques pour les professionnels du SEO.
Conséquences pour l’écosystème SEO français
Adaptation nécessaire des méthodologies
Pour les agences SEO françaises, cette modification impose une révision complète des méthodologies d’audit et de suivi. Chez Semjuice, nous anticipons cette évolution en diversifiant nos sources de données et en développant des approches moins dépendantes des paramètres Google traditionnels.
Les professionnels doivent désormais composer avec des coûts de collecte de données plus élevés et des processus d’analyse plus complexes. Cette contrainte technique renforce paradoxalement la valeur de l’expertise humaine face à l’automatisation.
Une opportunité pour les agences expertes
Cette complexification de l’écosystème technique représente une opportunité pour les agences SEO expérimentées. Alors que les outils automatisés perdent en efficacité, l’analyse manuelle et l’interprétation experte reprennent de la valeur. Les clients rechercheront des partenaires capables de naviguer dans cet environnement plus contraignant.
L’avenir du SEO dans un monde d’IA générative
Des fondamentaux SEO renforcés
Cette bataille technologique entre Google et les IA génératives révèle une réalité paradoxale : alors que beaucoup s’inquiètent de « la fin du SEO », les fondamentaux de notre métier n’ont jamais été aussi stratégiques. Les professionnels qui maîtrisent parfaitement l’indexation, l’optimisation technique et les signaux utilisateurs prennent une longueur d’avance considérable dans cet environnement de plus en plus contraint.
Cette évolution rejoint parfaitement la vision de Semjuice : loin de fragiliser le SEO, l’émergence des IA génératives renforce l’importance d’une approche technique rigoureuse et d’une compréhension approfondie des mécanismes de recherche. Pendant que les outils automatisés perdent en efficacité, l’expertise humaine reprend sa valeur centrale.
Vers de nouvelles restrictions ?
La désactivation du paramètre &num=100 n’est probablement que le début d’une série de modifications que Google apportera pour protéger ses données. Les professionnels du SEO doivent s’attendre à un environnement technique de plus en plus contraint, nécessitant une adaptation permanente des outils et des méthodes.
Recommandations pour les professionnels du SEO
Face à ces évolutions, plusieurs stratégies d’adaptation s’imposent :
Cette évolution marque un tournant dans l’industrie du SEO. Elle révèle la dépendance croissante des IA génératives aux infrastructures de recherche traditionnelles et confirme que Google reste le gardien incontournable de l’accès à l’information web.
Pour les agences comme Semjuice, c’est l’occasion de réaffirmer la valeur de l’expertise humaine et de l’accompagnement personnalisé dans un écosystème technique de plus en plus complexe.