Google-Indexierungsprobleme finden und beheben

Google-Indexierungsprobleme finden und beheben

Starker Content, schwache Reichweite – dieses Problem kennt wohl so ziemlich jeder, der sich schon mal mit SEO beschäftigt hat. Häufig hängt es an der schlechten Indexierung der eigenen Website. Crawlbots von Suchmaschinen, vor allem der Googlebot, untersuchen regelmäßig die eigene Seite, erfassen alle erreichbaren URLs, katalogisieren etwaige Änderungen und lassen diese in die Erstellung des Suchindexes und somit der Suchergebnisseiten einfließen. Was aber, wenn Probleme beim Indexieren auftauchen? Keine Sorge, guter Rat muss nicht teuer sein.


Ein kurzer Exkurs in die Welt der Crawlbots

Vorneweg: Google arbeitet auf eine Reduzierung der Crawl-Rate  hin, unter anderem aus Gründen der Nachhaltigkeit, und weist zugleich auf die Probleme zu vieler Crawls  hin. Das sorgt direkt für etwas Verwirrung – wie viele Crawls sollen es nun sein? Tatsächlich überprüfen Crawlbots nie die ganze Website auf einmal. Gerade bei sehr umfangreichen Seiten kann es oft Wochen und Monate dauern, bis neue Seiten und/oder Änderungen erfasst werden. Ist das „Budget“ für neue Crawls verbraucht, bricht der Bot ab und setzt zu einem anderen Zeitpunkt fort. Während unbekannt ist, wie umfangreich diese Crawlmenge tatsächlich ausfällt, sollte man es den Bots so einfach wie möglich machen. Klar strukturierte Websites, sinnvolle und nachvollziehbare interne Links sowie die Erreichbarkeit jeder einzelnen Unterseite durch Menü- und/oder Textlinks hilft bei der kompletten Content-Erfassung und verhindert unnötige Crawls – wie auch die Beseitigung ellenlanger Weiterleitungsketten.


Die häufigsten Gründe für Indexierungsprobleme

Grundsätzlich gibt es zwei Hauptgründe, welche die Indexierung hemmen oder sogar unmöglich machen:

  • Inhaltliche Gründe: Google ist nach eigenen Angaben bestrebt, stets die besten und relevantesten Ergebnisse zu bestimmten Suchanfragen auszuspielen und versteht sich somit, zumindest zu einem gewissen Grad, als Kontextsuchmaschine mit Blick auf die Suchintention. Falls beispielsweise Keywording und Inhalt nicht zueinanderpassen oder andere Defizite bestehen – wenig aussagekräftiger Content, mehrere eigene Unterseiten mit (nahezu) identen Inhalten oder sogar Kopien von anderen Websites („Duplicate Content“) –, so kann sich das negativ auf das Crawling auswirken.

  • Technische Gründe: Was aber, wenn die Bots den gewünschten Inhalt gar nicht erst crawlen können? Crawler sehen Seiten anders als das menschliche Auge. So können Interstitials oder JavaScript Sites teilweise oder sogar komplett unsichtbar bzw. „uncrawlbar“ gestalten. Server Side Rendering kann eigene, richtige und vollständige Versionen an Bots schicken.


Probleme lösen mit der Google Search Console

Obwohl es viele Möglichkeiten gibt, den Indexierungsstatus zu überprüfen, funktioniert die Google Search Console immer noch am besten. Sie zeigt auf, wie viele Seiten indexiert wurden, und wie viele in einer nicht näher benannten Warteschlange hängen. Bei folgenden Fehlermeldungen kann etwas unternommen werden:

  • Gecrawlt – zur Zeit nicht indexiert: Dieser Status weist in der Regel auf technische Probleme hin, d. h. die gewünschte Seite ist entweder nicht erreichbar oder kann nicht vollends identifiziert bzw. gelesen sein. Ein Problem kann JavaScript sein. Ist die Seite bei deaktiviertem Script nicht lesbar, kann Server Side Rendering Abhilfe schaffen. Außerdem kann die Search Console gezielt anzeigen, ob und wie weit Inhalte gelesen werden können. Hakt es hier, braucht es technische Änderungen. Allerdings können auch inhaltliche Probleme diesen Status auslösen, d. h. eine Überprüfung des Content auf Relevanz und Eindeutigkeit ist vonnöten.

  • Gefunden – zur Zeit nicht indexiert: Hier gibt es definitiv technische Probleme. Entweder reicht das Crawlbudget nicht aus oder Google fehlen die Signale für die Relevanz dieser Seite. Von passenden internen Verlinkungen über unnötige Weiterleitungen bis hin zu Canonical-Tags will hier Schritt für Schritt die Erreichbarkeit überprüft werden.

  • URL nicht angezeigt: Ein ganz anderes Problem sind Links, die in der Search Console erst gar nicht auftauchen. Anhand eines Logfile-Checks lässt sich einsehen, ob Searchbots hier überhaupt tätig wurden. Ist dem nicht so, dann stimmt wohl etwas mit den Verlinkungen und der Seitenstruktur nicht.


Weitere Lösungsansätze

An letzteren Punkt anknüpfend: Ein Blick in die Google-Suche zahlt sich immer aus. Hier wird einfach nach einem Textblock der eigenen Seite gesucht. Wird dieser nicht gefunden, klappt die Indexierung nicht. Wird eine andere Seite angezeigt, kann es sich um Duplicate Content handeln, oder aber es mischen sich Paginierungs- und andere Übersichtsseiten ein. Canonical-Tags können die Lösung sein. Was generell immer hilft, ist eine XML-Sitemap. Diese etwas in die Vergessenheit geratene Kunst beinhaltet alle Content-Seiten und kann direkt in der Search Console eingereicht werden. Bevor das geschieht, sollte auf Weiterleitungen, auf Canonical- und Noindex-Anweisungen sowie andere Fehler überprüft werden, um die Bots nicht in eine weitere suboptimale Endlosschleife zu schicken.

Der Google-Suchindex – eigentlich Suchmaschinenindexe an sich – ist eine Wissenschaft für sich, benötigt Geduld und Feingefühl. Regelmäßige Checks der Search Console sollte definitiv Teil der SEO-Strategie sein. Der Aufwand lohnt sich.

 

Quelle: www.seokratie.de

Copyright Foto: pixabay.com/prographer_

Google Ads setzt auf KI-Unterstützung bei Bildern

Vorheriges Posting

GEO: Content für generative KI optimieren

Nächstes Posting