Depuis janvier 2025, Google supprime progressivement le paramètre num=100 qui permettait d'afficher 100 résultats de recherche sur une seule page. Cette décision impacte directement les référenceurs et complique sérieusement l'analyse SEO des positions situées après le top 10. Dans cet article, nous vous expliquons pourquoi Google supprime le num, quels sont les effets concrets sur le suivi des SERP et quelles alternatives SEO adopter pour maintenir vos analyses de positions.
Fin de num=100 et impacts SEO
Le paramètre d'URL &num=100 était un outil précieux pour les professionnels du référencement. En l'ajoutant à une requête Google (par exemple : https://www.google.com/search?q=mot-clé&num=100), on obtenait 100 résultats organiques sur une même page, au lieu des 10 habituels. Cette fonctionnalité facilitait grandement l'analyse SEO et le suivi concurrentiel en permettant de visualiser l'intégralité d'une SERP en un seul coup d'œil.

Pourquoi Google supprime num=100 en SEO
La décision de Google de supprimer le num=100 repose sur plusieurs raisons stratégiques et techniques. Premièrement, cette mesure vise à limiter le scraping intensif en obligeant à effectuer plusieurs requêtes paginées plutôt qu'une extraction massive de 100 résultats. Google souhaite également uniformiser l'expérience utilisateur entre ordinateur et mobile, où l'affichage de 100 résultats n'est pas adapté à la navigation tactile.
L'incompatibilité croissante avec le rendu dynamique en JavaScript des SERP actuelles est un autre argument important. Le chargement progressif via scroll infini rend obsolète un paramètre qui suppose une réponse HTML statique contenant 100 résultats. Cette évolution s'inscrit parfaitement dans la stratégie mobile-first de Google.
- Protection anti-scraping : Plus de requêtes augmentent les chances de déclencher des CAPTCHA et autres protections anti-robots
- Uniformité UX : 10 résultats par page + scroll infini garantissent une expérience cohérente sur tous les appareils
- Contrôle des données : Restreindre l'accès massif aux données publiques réduit les risques de revente ou de contournement publicitaire
Ces impératifs réglementaires et commerciaux, combinés aux aspects techniques, justifient l'abandon du num=100. Google promeut désormais ses API officielles, soumises à quotas et facturation, encourageant ainsi les professionnels à adopter des solutions payantes.
Conséquences SEO et données GSC
La suppression du num=100 entraîne une complexification du suivi des positions et bouleverse les métriques traditionnelles. Les référenceurs doivent donc trouver des alternatives SEO pour maintenir leurs analyses de visibilité. Désormais, reconstituer un top 100 nécessite 10 requêtes distinctes (start=0,10,20...90) ou l'émulation du scroll via un navigateur headless.
Ce changement affecte aussi Google Search Console : les impressions des positions 11-100 diminuent artificiellement. Comme les résultats ne s'affichent plus ensemble, leur visibilité apparente baisse dans les rapports GSC. Paradoxalement, le CTR brut augmente (même nombre de clics divisé par moins d'impressions), ce qui peut générer de faux signaux positifs.
- Ruptures historiques : Les séries temporelles basées sur un top 100 complet ne sont plus comparables aux nouvelles données paginées
- Fiabilité réduite de notre décryptage : Plus d'erreurs possibles dues aux résultats manquants, à la personnalisation et aux différences entre desktop/mobile
- Coûts techniques : Augmentation de la bande passante, de la latence et de la complexité du code pour un même niveau d'analyse
Les équipes SEO doivent absolument noter la date de suppression du num=100 dans leurs tableaux de bord et redéfinir leurs KPI pour éviter toute interprétation erronée. Cette transition nécessite une refonte complète des modèles de reporting actuels.
Alternatives techniques et priorisation SEO
Face à cette suppression du num par Google, plusieurs solutions techniques permettent de continuer l'analyse des SERP. La pagination classique reste l'option la plus simple : itérer sur start=0,10,20... avec &num=10 en ajoutant des pauses et une rotation de User-Agent/proxy. L'émulation du scroll via des navigateurs headless (Puppeteer, Playwright) offre une alternative plus fidèle à l'expérience utilisateur réelle.
- SERP APIs spécialisées : SerpApi, DataForSEO, Zenserp gèrent la géolocalisation, le rendu JS et l'anti-blocage tout en fournissant des données structurées
- Google Custom Search API : Solution officielle adaptée aux volumes modérés dans la limite des quotas disponibles
- Méthodes d'échantillonnage : Suivi complet du top 10 et analyse partielle des positions 11-100 selon leur importance
- Search Console API : Données officielles sur impressions, clics et position moyenne pour vos propres sites
La stratégie la plus efficace consiste à concentrer le suivi quotidien sur le top 10-30 (ROI maximal) puis à planifier des scans complets du top 100 chaque semaine ou chaque mois. Cette approche offre un bon équilibre entre précision analytique et contrôle des coûts techniques.
Méthode | Coût technique | Fiabilité | Usage recommandé |
Pagination native | Élevé (10 × requêtes) | Moyenne | Suivi ponctuel |
Navigateur headless | Très élevé | Élevée | Analyses approfondies |
SERP API tierce | Faible | Élevée | Usage intensif |
Search Console API | Nul | Maximale | Ses propres sites |
Contexte légal et évolution algorithmes SEO
L'abandon du num=100 s'inscrit dans un contexte réglementaire tendu pour Google. Le 5 septembre 2025, la Commission européenne a condamné l'entreprise pour abus de position dominante dans la publicité en ligne, estimant que depuis 2014, elle favorisait ses propres services via un accès privilégié aux données. Bruxelles exige des correctifs concrets, et Google a annoncé son intention de faire appel, ouvrant un long contentieux. Cette sanction illustre la pression croissante sur les géants du numérique et explique pourquoi Google modifie ou supprime certaines fonctionnalités. Lire l'analyse complète et ses enjeux pour les services Google
Multiplier les requêtes automatisées sans API officielle peut violer les Conditions d'utilisation de Google et exposer à des blocages. Les services tiers de SERP API offrent généralement une meilleure conformité juridique que le scraping direct. Dans certains pays, notamment l'UE, l'exploitation intensive de données publiques peut être considérée comme non conforme.
L'évolution des algorithmes Google privilégie désormais les signaux comportementaux réels. Un guide pratique explique comment gérer les URL canoniques pour éviter le contenu dupliqué produit par des paramètres comme ?num=100. Il détaille l'utilisation de la balise rel=canonical, la différence avec la redirection 301, et propose une méthode en cinq étapes pour les boutiques en ligne. Lire le guide complet sur les URL canoniques Cette approche change pour l'analyse SEO traditionnelle basée sur le simple suivi de position.