Warum sind meine Seiten 'Entdeckt, nicht indexiert' in der Search Console?

Sie öffnen die Google Search Console, navigieren zu Seiten und sehen Dutzende — manchmal Hunderte — von URLs, die im Abschnitt "Entdeckt — aktuell nicht indexiert" blockiert sind. Im Gegensatz zu "Gecrawlt — aktuell nicht indexiert" (wo Google die Seite besucht hat und sich dann entschieden hat, sie nicht zu indexieren), bedeutet dieser Status etwas Grundlegenderes: Google hat die Seite noch nicht einmal gecrawlt.

Es weiß, dass die URL existiert — wahrscheinlich über Ihre Sitemap oder einen internen Link — aber es hat sie auf unbestimmte Zeit in die Warteschlange gestellt. Hier ist, warum das passiert und wie man es beheben kann.

Entdeckt vs. Gecrawlt nicht indexiert: der grundlegende Unterschied

Diese beiden Status werden oft verwechselt, aber sie weisen auf völlig unterschiedliche Probleme hin:

StatusWas es bedeutetGrundursache
Entdeckt — nicht indexiertGoogle hat die URL gefunden, aber nicht heruntergeladenCrawl-Budget, Serverlast, niedrige Priorität
Gecrawlt — nicht indexiertGoogle hat die Seite heruntergeladen, aber abgelehntLeichter Inhalt, Qualitätssignale, Duplikation

"Entdeckt" ist ein Ressourcenproblem. "Gecrawlt nicht indexiert" ist ein Qualitätsproblem. Die Lösungen sind unterschiedlich. Wenn Sie mit dem Status "Gecrawlt — aktuell nicht indexiert" konfrontiert sind, behandeln wir dies ausführlich in unserem Artikel darüber, warum Google sich weigert, Ihre Seiten zu indexieren.

Ursache 1: Erschöpfung des Crawl-Budgets

Das Crawl-Budget ist die Anzahl der URLs, die Googlebot auf Ihrer Website in einem bestimmten Zeitfenster crawlen wird. Google weist dieses Budget basierend auf der wahrgenommenen Autorität Ihrer Website und der Kapazität Ihres Servers zu. Eine neue Website mit geringer Domain-Autorität kann ein Budget von 100–200 Seiten pro Tag haben. Eine große E-Commerce-Website mit 50.000 Seiten kann ihr Budget in wenigen Stunden erschöpfen.

Wenn Googlebot mehr URLs entdeckt, als sein Budget erlaubt, sie zu crawlen, stellt es sie in die Warteschlange. Die kürzlich entdeckten Seiten — durch eine neue Sitemap-Einreichung oder kürzlich hinzugefügte interne Links — warten in dieser Warteschlange, manchmal wochenlang.

Anzeichen für die Erschöpfung des Crawl-Budgets:

  • Große Anzahl von "Entdeckten" Seiten im Vergleich zu indexierten Seiten
  • Neue Seiten benötigen 2 bis 4+ Wochen, um gecrawlt zu werden
  • Die Crawling-Statistiken in GSC zeigen, dass Googlebot täglich nur einen Bruchteil Ihrer gesamten Seiten besucht

Ursache 2: Geringe wahrgenommene Autorität

Google priorisiert das Crawlen von Seiten, von denen es erwartet, dass sie es wert sind, indexiert zu werden. Eine neue Website mit wenigen Backlinks, schwachen Engagement-Signalen und einer Geschichte von leichtem Inhalt erhält eine niedrige Crawl-Priorität — selbst für technisch korrekte Seiten.

Es ist ein Henne-Ei-Problem: Sie können keinen Traffic erhalten, ohne indexiert zu werden, aber Ihre Crawl-Priorität hängt teilweise von den Traffic-Signalen ab. Die Lösung besteht darin, Google aktiv zu signalisieren, dass Ihre Seiten es wert sind, gecrawlt zu werden.

Ursache 3: Muster von leichtem oder dupliziertem Inhalt

Der Crawl-Planer von Google ist nicht naiv. Wenn er andere Seiten Ihrer Website gecrawlt und leichten oder duplizierten Inhalt gefunden hat, wird er die verbleibenden nicht gecrawlten Seiten zurückstufen. Er sagt im Wesentlichen: "Diese Website hat keine großartige Geschichte von qualitativ hochwertigem Inhalt — Warteschlange mit niedriger Priorität."

Deshalb zählen 50 hochwertige Artikel mehr als 500 mittelmäßige Artikel. Bereinigen Sie Ihren vorhandenen Inhalt, bevor Sie sich Sorgen machen, neue Seiten crawlen zu lassen.

Ursache 4: Serverleistungsprobleme

Googlebot ist höflich — es verlangsamt oder stoppt das Crawlen, wenn Ihr Server langsam reagiert oder Fehler zurückgibt. Wenn Ihr Server ständig langsam ist (>500ms Antwortzeit) oder intermittierend 5xx-Fehler zurückgibt, wird Google seine Crawl-Rate drosseln, was zu einem wachsenden Rückstand von "Entdeckten" Seiten führt.

Überprüfen Sie Ihre Crawling-Statistiken in GSC (Einstellungen → Crawling-Statistiken) und suchen Sie nach:

  • Hohe durchschnittliche Antwortzeit
  • Spitzen von Serverfehlern (5xx)
  • Rückgang der täglich gecrawlten Seiten

Ursache 5: Unzureichende interne Verlinkung

Seiten, die nur über eine Sitemap zugänglich sind und keine internen Links zu ihnen haben, stehen am Ende der Crawl-Priorität von Google. Googlebot folgt Links. Wenn eine Seite 4–5 Klicks von Ihrer Startseite entfernt ist, ohne direkten Link von autoritativen Seiten, wird sie lange warten, bevor sie gecrawlt wird.

Lösungen: was wirklich zu tun ist

1. Zuerst die Verschwendung des Crawl-Budgets beseitigen

Überprüfen Sie, wofür Googlebot sein Budget ausgibt. Verwenden Sie Ihre Serverprotokolle oder den Log-Analysemodus von Screaming Frog, um zu sehen, welche URLs Googlebot tatsächlich besucht. Häufige Budgetverschwender:

  • URL-Parameter, die duplizierte Seiten erzeugen (?sort=, ?page=1)
  • Facettierte Navigation, die Tausende von Filterkombinationen erstellt
  • Alte, umgeleitete URLs, die noch gecrawlt werden
  • Administrations- oder interne Seiten, die für Bots zugänglich sind

Blockieren Sie sie über robots.txt oder kanonische Tags, um Budget für Ihren echten Inhalt freizugeben.

2. Interne Verlinkung zu betroffenen Seiten verbessern

Fügen Sie Links zu Ihren "Entdeckten" Seiten von Ihren autoritärsten Seiten hinzu — Startseite, Kategorieseiten, am besten platzierte Artikel. Selbst ein starker interner Link kann das Crawlen erheblich beschleunigen.

3. URL-Inspektion + Indexierung anfordern verwenden

Für wichtige Seiten verwenden Sie das URL-Inspektionswerkzeug von GSC, um manuell die Indexierung anzufordern. Dies bringt sie in der Warteschlange nach oben. Tun Sie dies nicht für Hunderte von Seiten — reservieren Sie es für Ihre 10 bis 20 wichtigsten URLs.

4. Google Indexing API für priorisierte Seiten verwenden

Für Websites, die zeitkritischen Inhalt veröffentlichen (Nachrichten, Veranstaltungen, Stellenangebote), kann die Google Indexing API die Crawl-Warteschlange für berechtigte Seiten vollständig umgehen. Ein Tool wie IndexAI automatisiert diesen Prozess, indem es Indexierungssignale für jede URL sendet und das Ergebnis verfolgt.

5. Autorität aufbauen, um das Crawl-Budget zu erhöhen

Backlinks von autoritativen Websites zu erhalten, erhöht das Vertrauen von Google in Ihre Domain und erweitert Ihr Crawl-Budget im Laufe der Zeit. Konzentrieren Sie sich auf 5 bis 10 hochwertige Backlinks anstatt auf Dutzende von minderer Qualität.

Wie lange dauert es?

Ohne Eingriff: Wochen bis Monate. Mit aktiver Optimierung (interne Links + Indexing API + Bereinigung des Crawl-Budgets): in der Regel 1 bis 2 Wochen, bis die meisten Seiten den Status "Gecrawlt" erreichen. Einige Seiten in der Warteschlange seit 6+ Monaten auf vernachlässigten Websites.

Verfolgen Sie Ihren GSC-Seitenindexierungsbericht jede Woche und zeichnen Sie das Verhältnis "Entdeckt" / "Indexiert" auf. Diese Zahl sollte im Laufe der Zeit sinken, wenn Ihre Korrekturen funktionieren.

        <div class="cta-box">
            <p><strong>📞 Seiten, die sich weigern, indexiert zu werden?</strong> Wir diagnostizieren Ihre Situation in wenigen Minuten.</p>
            <a href="https://t.me/SEOHotline" target="_blank">Kontaktieren Sie uns auf Telegram</a>
        </div>