Apri Google Search Console, navighi verso Pagine, e vedi decine — a volte centinaia — di URL bloccate nella sezione "Scoperta — non indicizzata attualmente". A differenza di "Esplorata — non indicizzata attualmente" (dove Google ha visitato la pagina e poi deciso di non indicizzarla), questo stato significa qualcosa di più fondamentale: Google non ha ancora crawlato la pagina.
Sa che l'URL esiste — probabilmente tramite il tuo sitemap o un link interno — ma l'ha messa in coda indefinitamente. Ecco perché accade e come rimediare.
Scoperta vs Esplorata non indicizzata: la differenza fondamentale
Questi due stati sono spesso confusi, ma indicano problemi totalmente diversi:
| Stato | Cosa significa | Causa principale |
|---|---|---|
| Scoperta — non indicizzata | Google ha trovato l'URL ma non l'ha scaricata | Crawl budget, carico server, bassa priorità |
| Esplorata — non indicizzata | Google ha scaricato la pagina ma l'ha rifiutata | Contenuto leggero, segnali di qualità, duplicazione |
"Scoperta" è un problema di risorse. "Esplorata non indicizzata" è un problema di qualità. Le soluzioni sono diverse. Se ti trovi di fronte allo stato "Esplorata — non indicizzata attualmente", lo trattiamo in dettaglio nel nostro articolo su perché Google rifiuta di indicizzare le tue pagine.
Causa 1: Esaurimento del crawl budget
Il crawl budget è il numero di URL che Googlebot crawlerà sul tuo sito in un determinato periodo. Google assegna questo budget in base all'autorità percepita del tuo sito e alla capacità del tuo server. Un nuovo sito con una bassa autorità di dominio può avere un budget di 100–200 pagine al giorno. Un grande sito e-commerce con 50.000 pagine può esaurire il suo budget in poche ore.
Quando Googlebot scopre più URL di quante il suo budget gli permetta di crawlare, le mette in coda. Le pagine scoperte di recente — tramite una nuova sottomissione di sitemap o link interni recentemente aggiunti — aspettano in questa coda, a volte per settimane.
Segni di esaurimento del crawl budget:
- Grande numero di pagine "Scoperte" rispetto alle pagine indicizzate
- Le nuove pagine impiegano 2 a 4+ settimane per essere crawlate
- Le statistiche di crawl in GSC mostrano che Googlebot visita solo una frazione delle tue pagine totali quotidianamente
Causa 2: Bassa autorità percepita
Google dà priorità al crawl delle pagine che si aspetta valga la pena indicizzare. Un nuovo sito con pochi backlink, deboli segnali di coinvolgimento e una storia di contenuti leggeri ottiene una bassa priorità di crawl — anche per pagine tecnicamente corrette.
È un problema di gallina e uovo: non puoi ottenere traffico senza essere indicizzato, ma la tua priorità di crawl dipende in parte dai segnali di traffico. La soluzione è segnalare attivamente a Google che le tue pagine meritano di essere crawlati.
Causa 3: Pattern di contenuto leggero o duplicato
Il pianificatore di crawl di Google non è ingenuo. Se ha crawlato altre pagine del tuo sito e ha trovato contenuti leggeri o duplicati, de-priorizzerà le pagine non ancora crawlati rimanenti. Sta essenzialmente dicendo: "Questo sito non ha una grande storia di qualità del contenuto — fila di bassa priorità."
È per questo che avere 50 articoli di alta qualità conta più di 500 articoli mediocri. Pulisci il tuo contenuto esistente prima di preoccuparti di far crawlare nuove pagine.
Causa 4: Problemi di performance del server
Googlebot è cortese — rallenta o smette di crawlare se il tuo server risponde lentamente o restituisce errori. Se il tuo server è costantemente lento (>500ms di tempo di risposta) o restituisce errori 5xx in modo intermittente, Google ridurrà il suo tasso di crawl, il che significa un backlog crescente di pagine "Scoperte".
Controlla le tue statistiche di crawl in GSC (Impostazioni → Statistiche di crawl) e cerca:
- Tempo di risposta medio elevato
- Picchi di errori server (5xx)
- Riduzione del numero di pagine crawlati al giorno
Causa 5: Collegamento interno insufficiente
Le pagine accessibili solo tramite un sitemap e senza link interni che puntano a esse sono in fondo alla priorità di crawl di Google. Googlebot segue i link. Se una pagina è a 4–5 clic dalla tua homepage senza un link diretto da pagine autorevoli, aspetterà a lungo prima di essere crawlata.
Soluzioni: cosa fare davvero
1. Eliminare prima gli sprechi di crawl budget
Audita su cosa Googlebot spende il suo budget. Usa i tuoi log server o la modalità di analisi dei log di Screaming Frog per vedere quali URL Googlebot visita realmente. Gli sprechi di budget comuni:
- Parametri URL che generano pagine duplicate (
?sort=,?page=1) - Navigazione a faccette che crea migliaia di combinazioni di filtri
- Vecchie URL reindirizzate ancora crawlati
- Pagine di amministrazione o interne accessibili ai bot
Bloccale tramite robots.txt o tag canonical, liberando budget per il tuo vero contenuto.
2. Migliorare il collegamento interno verso le pagine interessate
Aggiungi link alle tue pagine "Scoperte" dalle tue pagine più autorevoli — homepage, pagine di categorie, articoli meglio posizionati. Anche un solo link interno forte può accelerare notevolmente il crawl.
3. Usare l'Ispezione URL + Richiedere l'indicizzazione
Per le pagine importanti, usa lo strumento di ispezione URL di GSC per richiedere manualmente l'indicizzazione. Questo le porta in cima alla coda. Non farlo per centinaia di pagine — riservalo per le tue 10 a 20 URL più importanti.
4. Usare l'API Google Indexing per le pagine prioritarie
Per i siti che pubblicano contenuti sensibili al tempo (notizie, eventi, offerte di lavoro), l'API Google Indexing può aggirare completamente la coda di crawl per le pagine idonee. Uno strumento come IndexAI automatizza questo processo, inviando segnali di indicizzazione per ogni URL e seguendo il risultato.
5. Costruire l'autorità per aumentare il crawl budget
Ottenere backlink da siti autorevoli aumenta la fiducia di Google nel tuo dominio e amplia il tuo crawl budget nel tempo. Concentrati su 5 a 10 backlink di qualità piuttosto che decine di bassa qualità.
Quanto tempo ci vuole?
Senza intervento: settimane a mesi. Con un'ottimizzazione attiva (link interni + API di indicizzazione + pulizia del crawl budget): generalmente 1 a 2 settimane affinché la maggior parte delle pagine passi allo stato "Esplorata". Alcune pagine in coda da 6+ mesi su siti trascurati.
Segui il tuo rapporto di indicizzazione delle pagine GSC ogni settimana e traccia il rapporto "Scoperte" / "Indicizzate". Questo numero dovrebbe diminuire nel tempo se le tue correzioni funzionano.
<div class="cta-box">
<p><strong>📞 Pagine che rifiutano di essere indicizzate?</strong> Diagnostichiamo la tua situazione in pochi minuti.</p>
<a href="https://t.me/SEOHotline" target="_blank">Contattaci su Telegram</a>
</div>