Por que minhas páginas estão 'Descobertas, não indexadas' no Search Console?

Você abre o Google Search Console, navega até Páginas, e vê dezenas — às vezes centenas — de URLs bloqueadas na seção "Descoberta — não indexada atualmente". Ao contrário de "Rastreada — não indexada atualmente" (onde o Google visitou a página e decidiu não indexá-la), este status significa algo mais fundamental: o Google ainda nem rastreou a página.

Ele sabe que a URL existe — provavelmente via seu sitemap ou um link interno — mas a colocou em uma fila indefinidamente. Veja por que isso acontece e como resolver.

Descoberta vs Rastreada não indexada: a diferença fundamental

Esses dois status são frequentemente confundidos, mas indicam problemas totalmente diferentes:

StatusO que significaCausa raiz
Descoberta — não indexadaGoogle encontrou a URL mas não a baixouCrawl budget, carga do servidor, baixa prioridade
Rastreada — não indexadaGoogle baixou a página mas a rejeitouConteúdo leve, sinais de qualidade, duplicação

"Descoberta" é um problema de recursos. "Rastreada não indexada" é um problema de qualidade. As soluções são diferentes. Se você está enfrentando o status "Rastreada — não indexada atualmente", tratamos disso em detalhe em nosso artigo sobre por que o Google se recusa a indexar suas páginas.

Causa 1: O esgotamento do crawl budget

O crawl budget é o número de URLs que o Googlebot vai rastrear em seu site em um determinado período. O Google aloca esse orçamento com base na autoridade percebida do seu site e na capacidade do seu servidor. Um site novo com baixa autoridade de domínio pode ter um orçamento de 100–200 páginas por dia. Um grande site de e-commerce com 50.000 páginas pode esgotar seu orçamento em poucas horas.

Quando o Googlebot descobre mais URLs do que seu orçamento permite rastrear, ele as coloca em uma fila. As páginas descobertas recentemente — via uma nova submissão de sitemap ou links internos recentemente adicionados — esperam nessa fila, às vezes por semanas.

Sinais de esgotamento do crawl budget:

  • Grande número de páginas "Descobertas" em comparação com as páginas indexadas
  • As novas páginas demoram 2 a 4+ semanas para serem rastreadas
  • As estatísticas de rastreamento no GSC mostram que o Googlebot visita apenas uma fração do total de suas páginas diariamente

Causa 2: Baixa autoridade percebida

O Google prioriza o rastreamento de páginas que ele espera que valham a pena ser indexadas. Um site novo com poucos backlinks, baixos sinais de engajamento e um histórico de conteúdo leve obtém uma baixa prioridade de rastreamento — mesmo para páginas tecnicamente corretas.

É um problema de ovo e galinha: você não pode obter tráfego sem ser indexado, mas sua prioridade de rastreamento depende em parte dos sinais de tráfego. A solução é sinalizar ativamente ao Google que suas páginas merecem ser rastreadas.

Causa 3: Padrões de conteúdo leve ou duplicado

O planejador de rastreamento do Google não é ingênuo. Se ele rastreou outras páginas do seu site e encontrou conteúdo leve ou duplicado, ele despriorizará as páginas não rastreadas restantes. Ele está essencialmente dizendo: "Este site não tem um excelente histórico de qualidade de conteúdo — fila de baixa prioridade."

É por isso que ter 50 artigos de alta qualidade conta mais do que 500 artigos medianos. Limpe seu conteúdo existente antes de se preocupar em fazer o rastreamento de novas páginas.

Causa 4: Problemas de desempenho do servidor

O Googlebot é educado — ele diminui ou para de rastrear se seu servidor responde lentamente ou retorna erros. Se seu servidor está constantemente lento (>500ms de tempo de resposta) ou retorna erros 5xx de forma intermitente, o Google vai limitar sua taxa de rastreamento, o que significa um acúmulo crescente de páginas "Descobertas".

Verifique suas estatísticas de rastreamento no GSC (Configurações → Estatísticas de rastreamento) e procure por:

  • Tempo de resposta médio alto
  • Picos de erros do servidor (5xx)
  • Queda no número de páginas rastreadas por dia

Causa 5: Malha interna insuficiente

As páginas acessíveis apenas via sitemap e sem links internos apontando para elas estão no final da prioridade de rastreamento do Google. O Googlebot segue os links. Se uma página está a 4–5 cliques da sua página inicial sem link direto de páginas autoritativas, ela esperará muito tempo antes de ser rastreada.

Soluções: o que realmente fazer

1. Eliminar primeiro os desperdícios de crawl budget

Audite onde o Googlebot está gastando seu orçamento. Use seus logs de servidor ou o modo de análise de logs do Screaming Frog para ver quais URLs o Googlebot realmente visita. Os desperdiçadores de orçamento comuns:

  • Parâmetros de URL gerando páginas duplicadas (?sort=, ?page=1)
  • Navegação facetada criando milhares de combinações de filtros
  • URLs antigas redirecionadas ainda sendo rastreadas
  • Páginas de administração ou internas acessíveis aos bots

Bloqueie-os via robots.txt ou tags canonical, liberando orçamento para seu conteúdo real.

2. Melhorar a malha interna para as páginas afetadas

Adicione links para suas páginas "Descobertas" a partir de suas páginas mais autoritativas — página inicial, páginas de categorias, artigos melhor posicionados. Mesmo um único link interno forte pode acelerar consideravelmente o rastreamento.

3. Usar a Inspeção de URL + Solicitar indexação

Para páginas importantes, use a ferramenta de inspeção de URL do GSC para solicitar manualmente a indexação. Isso as coloca no topo da fila. Não faça isso para centenas de páginas — reserve para suas 10 a 20 URLs mais importantes.

4. Usar a API Google Indexing para páginas prioritárias

Para sites que publicam conteúdo sensível ao tempo (notícias, eventos, ofertas de emprego), a API Google Indexing pode contornar completamente a fila de rastreamento para páginas elegíveis. Uma ferramenta como IndexAI automatiza esse processo, enviando sinais de indexação para cada URL e acompanhando o resultado.

5. Construir autoridade para aumentar o crawl budget

Obter backlinks de sites autoritativos aumenta a confiança do Google em seu domínio e amplia seu crawl budget ao longo do tempo. Concentre-se em 5 a 10 backlinks de qualidade em vez de dezenas de baixa qualidade.

Quanto tempo leva?

Sem intervenção: semanas a meses. Com otimização ativa (links internos + API de indexação + limpeza do crawl budget): geralmente 1 a 2 semanas para que a maioria das páginas passe para o status "Rastreada". Algumas páginas na fila há 6+ meses em sites negligenciados.

Acompanhe seu relatório de indexação de páginas do GSC semanalmente e trace a proporção "Descobertas" / "Indexadas". Esse número deve diminuir ao longo do tempo se suas correções estiverem funcionando.

        <div class="cta-box">
            <p><strong>📞 Páginas que se recusam a ser indexadas?</strong> Diagnosticamos sua situação em minutos.</p>
            <a href="https://t.me/SEOHotline" target="_blank">Entre em contato no Telegram</a>
        </div>