Você abre o Google Search Console, navega até Páginas, e vê dezenas — às vezes centenas — de URLs bloqueadas na seção "Descoberta — não indexada atualmente". Ao contrário de "Rastreada — não indexada atualmente" (onde o Google visitou a página e decidiu não indexá-la), este status significa algo mais fundamental: o Google ainda nem rastreou a página.
Ele sabe que a URL existe — provavelmente via seu sitemap ou um link interno — mas a colocou em uma fila indefinidamente. Veja por que isso acontece e como resolver.
Descoberta vs Rastreada não indexada: a diferença fundamental
Esses dois status são frequentemente confundidos, mas indicam problemas totalmente diferentes:
| Status | O que significa | Causa raiz |
|---|---|---|
| Descoberta — não indexada | Google encontrou a URL mas não a baixou | Crawl budget, carga do servidor, baixa prioridade |
| Rastreada — não indexada | Google baixou a página mas a rejeitou | Conteúdo leve, sinais de qualidade, duplicação |
"Descoberta" é um problema de recursos. "Rastreada não indexada" é um problema de qualidade. As soluções são diferentes. Se você está enfrentando o status "Rastreada — não indexada atualmente", tratamos disso em detalhe em nosso artigo sobre por que o Google se recusa a indexar suas páginas.
Causa 1: O esgotamento do crawl budget
O crawl budget é o número de URLs que o Googlebot vai rastrear em seu site em um determinado período. O Google aloca esse orçamento com base na autoridade percebida do seu site e na capacidade do seu servidor. Um site novo com baixa autoridade de domínio pode ter um orçamento de 100–200 páginas por dia. Um grande site de e-commerce com 50.000 páginas pode esgotar seu orçamento em poucas horas.
Quando o Googlebot descobre mais URLs do que seu orçamento permite rastrear, ele as coloca em uma fila. As páginas descobertas recentemente — via uma nova submissão de sitemap ou links internos recentemente adicionados — esperam nessa fila, às vezes por semanas.
Sinais de esgotamento do crawl budget:
- Grande número de páginas "Descobertas" em comparação com as páginas indexadas
- As novas páginas demoram 2 a 4+ semanas para serem rastreadas
- As estatísticas de rastreamento no GSC mostram que o Googlebot visita apenas uma fração do total de suas páginas diariamente
Causa 2: Baixa autoridade percebida
O Google prioriza o rastreamento de páginas que ele espera que valham a pena ser indexadas. Um site novo com poucos backlinks, baixos sinais de engajamento e um histórico de conteúdo leve obtém uma baixa prioridade de rastreamento — mesmo para páginas tecnicamente corretas.
É um problema de ovo e galinha: você não pode obter tráfego sem ser indexado, mas sua prioridade de rastreamento depende em parte dos sinais de tráfego. A solução é sinalizar ativamente ao Google que suas páginas merecem ser rastreadas.
Causa 3: Padrões de conteúdo leve ou duplicado
O planejador de rastreamento do Google não é ingênuo. Se ele rastreou outras páginas do seu site e encontrou conteúdo leve ou duplicado, ele despriorizará as páginas não rastreadas restantes. Ele está essencialmente dizendo: "Este site não tem um excelente histórico de qualidade de conteúdo — fila de baixa prioridade."
É por isso que ter 50 artigos de alta qualidade conta mais do que 500 artigos medianos. Limpe seu conteúdo existente antes de se preocupar em fazer o rastreamento de novas páginas.
Causa 4: Problemas de desempenho do servidor
O Googlebot é educado — ele diminui ou para de rastrear se seu servidor responde lentamente ou retorna erros. Se seu servidor está constantemente lento (>500ms de tempo de resposta) ou retorna erros 5xx de forma intermitente, o Google vai limitar sua taxa de rastreamento, o que significa um acúmulo crescente de páginas "Descobertas".
Verifique suas estatísticas de rastreamento no GSC (Configurações → Estatísticas de rastreamento) e procure por:
- Tempo de resposta médio alto
- Picos de erros do servidor (5xx)
- Queda no número de páginas rastreadas por dia
Causa 5: Malha interna insuficiente
As páginas acessíveis apenas via sitemap e sem links internos apontando para elas estão no final da prioridade de rastreamento do Google. O Googlebot segue os links. Se uma página está a 4–5 cliques da sua página inicial sem link direto de páginas autoritativas, ela esperará muito tempo antes de ser rastreada.
Soluções: o que realmente fazer
1. Eliminar primeiro os desperdícios de crawl budget
Audite onde o Googlebot está gastando seu orçamento. Use seus logs de servidor ou o modo de análise de logs do Screaming Frog para ver quais URLs o Googlebot realmente visita. Os desperdiçadores de orçamento comuns:
- Parâmetros de URL gerando páginas duplicadas (
?sort=,?page=1) - Navegação facetada criando milhares de combinações de filtros
- URLs antigas redirecionadas ainda sendo rastreadas
- Páginas de administração ou internas acessíveis aos bots
Bloqueie-os via robots.txt ou tags canonical, liberando orçamento para seu conteúdo real.
2. Melhorar a malha interna para as páginas afetadas
Adicione links para suas páginas "Descobertas" a partir de suas páginas mais autoritativas — página inicial, páginas de categorias, artigos melhor posicionados. Mesmo um único link interno forte pode acelerar consideravelmente o rastreamento.
3. Usar a Inspeção de URL + Solicitar indexação
Para páginas importantes, use a ferramenta de inspeção de URL do GSC para solicitar manualmente a indexação. Isso as coloca no topo da fila. Não faça isso para centenas de páginas — reserve para suas 10 a 20 URLs mais importantes.
4. Usar a API Google Indexing para páginas prioritárias
Para sites que publicam conteúdo sensível ao tempo (notícias, eventos, ofertas de emprego), a API Google Indexing pode contornar completamente a fila de rastreamento para páginas elegíveis. Uma ferramenta como IndexAI automatiza esse processo, enviando sinais de indexação para cada URL e acompanhando o resultado.
5. Construir autoridade para aumentar o crawl budget
Obter backlinks de sites autoritativos aumenta a confiança do Google em seu domínio e amplia seu crawl budget ao longo do tempo. Concentre-se em 5 a 10 backlinks de qualidade em vez de dezenas de baixa qualidade.
Quanto tempo leva?
Sem intervenção: semanas a meses. Com otimização ativa (links internos + API de indexação + limpeza do crawl budget): geralmente 1 a 2 semanas para que a maioria das páginas passe para o status "Rastreada". Algumas páginas na fila há 6+ meses em sites negligenciados.
Acompanhe seu relatório de indexação de páginas do GSC semanalmente e trace a proporção "Descobertas" / "Indexadas". Esse número deve diminuir ao longo do tempo se suas correções estiverem funcionando.
<div class="cta-box">
<p><strong>📞 Páginas que se recusam a ser indexadas?</strong> Diagnosticamos sua situação em minutos.</p>
<a href="https://t.me/SEOHotline" target="_blank">Entre em contato no Telegram</a>
</div>