Vous ouvrez Google Search Console, vous naviguez vers Pages, et vous voyez des dizaines — parfois des centaines — d'URLs bloquées dans le compartiment "Découverte — non indexée actuellement". Contrairement à "Explorée — non indexée actuellement" (où Google a visité la page puis décidé de ne pas l'indexer), ce statut signifie quelque chose de plus fondamental : Google n'a même pas encore crawlé la page.
Il sait que l'URL existe — probablement via votre sitemap ou un lien interne — mais il l'a mise en file d'attente indéfiniment. Voici pourquoi ça arrive et comment y remédier.
Découverte vs Explorée non indexée : la différence fondamentale
Ces deux statuts sont souvent confondus, mais ils indiquent des problèmes totalement différents :
| Statut | Ce que ça signifie | Cause racine |
|---|---|---|
| Découverte — non indexée | Google a trouvé l'URL mais ne l'a pas téléchargée | Crawl budget, charge serveur, priorité faible |
| Explorée — non indexée | Google a téléchargé la page mais l'a rejetée | Contenu léger, signaux de qualité, duplication |
"Découverte" est un problème de ressources. "Explorée non indexée" est un problème de qualité. Les solutions sont différentes. Si vous êtes confronté au statut "Explorée — non indexée actuellement", nous le traitons en détail dans notre article sur pourquoi Google refuse d'indexer vos pages.
Cause 1 : L'épuisement du crawl budget
Le crawl budget est le nombre d'URLs que Googlebot va crawler sur votre site dans une fenêtre donnée. Google alloue ce budget en fonction de l'autorité perçue de votre site et de la capacité de votre serveur. Un nouveau site avec une faible autorité de domaine peut avoir un budget de 100–200 pages par jour. Un grand site e-commerce avec 50 000 pages peut épuiser son budget en quelques heures.
Quand Googlebot découvre plus d'URLs que son budget ne lui permet d'en crawler, il les met en file d'attente. Les pages découvertes récemment — via une nouvelle soumission de sitemap ou des liens internes récemment ajoutés — attendent dans cette file, parfois pendant des semaines.
Signes d'épuisement du crawl budget :
- Grand nombre de pages "Découvertes" par rapport aux pages indexées
- Les nouvelles pages mettent 2 à 4+ semaines à être crawlées
- Les statistiques de crawl dans GSC montrent que Googlebot ne visite qu'une fraction de vos pages totales quotidiennement
Cause 2 : Faible autorité perçue
Google priorise le crawl des pages qu'il s'attend à valoir la peine d'indexer. Un nouveau site avec peu de backlinks, de faibles signaux d'engagement et un historique de contenu léger obtient une faible priorité de crawl — même pour des pages techniquement correctes.
C'est un problème de poule et d'œuf : vous ne pouvez pas obtenir du trafic sans être indexé, mais votre priorité de crawl dépend en partie des signaux de trafic. La solution est de signaler activement à Google que vos pages méritent d'être crawlées.
Cause 3 : Patterns de contenu léger ou dupliqué
Le planificateur de crawl de Google n'est pas naïf. S'il a crawlé d'autres pages de votre site et trouvé du contenu léger ou dupliqué, il dépriorisera les pages non encore crawlées restantes. Il dit essentiellement : "Ce site n'a pas un excellent historique de qualité de contenu — file d'attente basse priorité."
C'est pourquoi avoir 50 articles de haute qualité compte plus que 500 articles médiocres. Nettoyez votre contenu existant avant de vous inquiéter de faire crawler de nouvelles pages.
Cause 4 : Problèmes de performance serveur
Googlebot est poli — il ralentit ou arrête de crawler si votre serveur répond lentement ou renvoie des erreurs. Si votre serveur est constamment lent (>500ms de temps de réponse) ou retourne des erreurs 5xx de manière intermittente, Google va throttler son taux de crawl, ce qui signifie un backlog croissant de pages "Découvertes".
Vérifiez vos statistiques de crawl dans GSC (Paramètres → Statistiques de crawl) et cherchez :
- Temps de réponse moyen élevé
- Pics d'erreurs serveur (5xx)
- Baisse du nombre de pages crawlées par jour
Cause 5 : Maillage interne insuffisant
Les pages uniquement accessibles via un sitemap et sans liens internes pointant vers elles sont en bas de la priorité de crawl de Google. Googlebot suit les liens. Si une page est à 4–5 clics de votre page d'accueil sans lien direct depuis des pages autoritaires, elle attendra longtemps avant d'être crawlée.
Solutions : ce qu'il faut vraiment faire
1. Éliminer d'abord les gaspillages de crawl budget
Auditez sur quoi Googlebot dépense son budget. Utilisez vos logs serveur ou le mode d'analyse de logs de Screaming Frog pour voir quelles URLs Googlebot visite réellement. Les gaspilleurs de budget courants :
- Paramètres d'URL générant des pages dupliquées (
?sort=,?page=1) - Navigation à facettes créant des milliers de combinaisons de filtres
- Anciennes URLs redirigées encore crawlées
- Pages d'administration ou internes accessibles aux bots
Bloquez-les via robots.txt ou balises canonical, libérant du budget pour votre vrai contenu.
2. Améliorer le maillage interne vers les pages affectées
Ajoutez des liens vers vos pages "Découvertes" depuis vos pages les plus autoritaires — page d'accueil, pages de catégories, articles les mieux positionnés. Même un seul lien interne fort peut considérablement accélérer le crawl.
3. Utiliser l'Inspection d'URL + Demander l'indexation
Pour les pages importantes, utilisez l'outil d'inspection d'URL de GSC pour demander manuellement l'indexation. Cela les remonte dans la file d'attente. Ne le faites pas pour des centaines de pages — réservez-le pour vos 10 à 20 URLs les plus importantes.
4. Utiliser l'API Google Indexing pour les pages prioritaires
Pour les sites publiant du contenu sensible au temps (actualités, événements, offres d'emploi), l'API Google Indexing peut contourner complètement la file d'attente de crawl pour les pages éligibles. Un outil comme IndexAI automatise ce processus, envoyant des signaux d'indexation pour chaque URL et suivant le résultat.
5. Construire l'autorité pour augmenter le crawl budget
Obtenir des backlinks de sites autoritaires augmente la confiance de Google en votre domaine et élargit votre crawl budget dans le temps. Concentrez-vous sur 5 à 10 backlinks de qualité plutôt que des dizaines de faible qualité.
Combien de temps ça prend ?
Sans intervention : des semaines à des mois. Avec une optimisation active (liens internes + API d'indexation + nettoyage du crawl budget) : généralement 1 à 2 semaines pour que la plupart des pages passent au statut "Explorée". Certaines pages dans la file depuis 6+ mois sur des sites négligés.
Suivez votre rapport d'indexation des pages GSC chaque semaine et tracez le ratio "Découvertes" / "Indexées". Ce nombre doit diminuer dans le temps si vos corrections fonctionnent.
<div class="cta-box">
<p><strong>📞 Des pages qui refusent de se faire indexer ?</strong> On diagnostique votre situation en quelques minutes.</p>
<a href="https://t.me/SEOHotline" target="_blank">Nous contacter sur Telegram</a>
</div>