Best Practices für die SEO-Indexbereinigung

Best Practices für die SEO-Indexbereinigung

Websites wachsen mit der Zeit – manche schneller und umfangreicher als andere. Oft entstehen dabei Inhalte, die irgendwann überholt, vielleicht sogar doppelt, in jedem Fall aber kontraproduktiv sind. Wenn diese dann noch den Suchindex verstopfen, das regelmäßige Crawlen von neuem Content verhindern und als Thin Content oder Duplicate Content unter Umständen sogar für Ranking-Probleme sorgen, ist Feuer am Dach. Ein ganzheitliches Konzept für die Indexbereinigung ist ein wertvolles SEO-Tool, das gleichzeitig die eigene Website frisch, aktuell und relevant hält.


Warum ist ein aufgeblasener Suchindex problematisch?


Ein paar Problemfelder wurden bereits angesprochen: Google vergibt nur gewisse „Crawl-Budgets“. Anhand vordefinierter Crawl-Rates, die womöglich weiter reduziert  werden, erhalten Websites regelmäßige automatisierte Überprüfungen auf Updates. Je umfangreicher eine Site ist, desto länger dauert es, bis Änderungen aufscheinen. Handelt es sich dann noch um wiederholende oder dünne Inhalte, die sich nicht ausreichend und/oder nicht einzigartig genug mit einem Thema auseinandersetzen, kann sich das negativ auf die erhofften Rankings auswirken. Überladene, unzureichend technisch optimierte Websites erzeugen zudem lange Ladezeiten – weder für Crawl-Bots noch für User, die obendrein auf der Suche nach dem gewünschten Content im Dunkeln tappen, eine angenehme Angelegenheit.


Diese Seiten tun dem Index weh


Welche Seiten wegfallen sollen, was bleiben darf und wo sich eine Zusammenlegung auszahlt, ist selbstverständlich Ermessenssache. Hier sind einige zentrale Faktoren:

  • Aktualität: Die Zeiten ändern sich. Ob Veranstaltungen oder Technologie, manche Inhalte sind relativ schnell überholt. Alte Blogs und Pressemitteilungen sowie Uralt-Events und deren Nachberichte werden nicht mehr gebraucht. Manche Informationen sind inzwischen unter Umständen sogar falsch oder gar schadhaft, gerade im gesundheitlichen und medizinischen Bereich. Ein steter Blick auf den eigenen Content rentiert sich.
  • Relevanz: Der Search-Intent  will getroffen werden, gerade bei gezieltem Keyword-Einsatz. Dünne oder gar irrelevante Inhalte, die einer Suchanfrage wenig bis gar nicht entsprechen, bieten keinen Mehrwert, richten vielleicht sogar Schaden an. Hier lohnt es sich, solche Beiträge komplett zu entfernen. Alternativ bündelt Content-Konsolidierung  mehrere minderwertige bis vernachlässigbare Texte zu einem umfangreichen Info-Anlaufpunkt.
  • Einzigartigkeit: Gibt es bestimmte Inhalte mehrfach und (fast) ident, stiftet das Verwirrung bei Usern, eventuell sogar bei Crawl-Bots, und sorgt dafür, dass sich Besucher regelrecht „verlaufen“. Ein zentraler Anlaufpunkt sollte das Ziel sein.
  • Verlinkung: Falls bestimmte Seiten erst gar nicht verlinkt sind, kann das verschiedene Ursachen haben. Wurde das einfach nur vergessen, bietet sich das Nachholen interner Verlinkungen  an. Ansonsten könnte eine komplette Löschung sinnvoll sein.


Wie läuft die Indexbereinigung ab?


Alles raus, was keine Miete zahlt? Vielleicht ist das nicht die beste Idee. Der Suchindex lässt sich auf unterschiedliche Weise entschlacken:

  • Löschung: Häufig zahlt es sich tatsächlich aus, veraltete, doppelte oder anderweitig unnötige Seiten zu entfernen. Damit sollte jedoch immer das Anlegen einer 301-Weiterleitung einhergehen, um User sowie Backlinks auf der Website zu halten und vielleicht sogar direkt an ein besseres, zugleich thematisch passendes Ziel zu verweisen.
  • Noindex: Obwohl dieser Tag vor geraumer Zeit aus der robots.txt verschwand, bleibt er relevant. Er verrät Suchmaschinen, dass sie diese Seite nicht in den Index aufnehmen sollen. Inzwischen gibt es mehrere Ansätze, wie noindex und weitere De-Crawling-Varianten eingesetzt  werden können.
  • Canonical-Tags: Manchmal muss man (nahezu) idente Inhalte auf mehreren Seiten aufgreifen, beispielsweise in Webshops oder bei PDF-Einsatz. Canonical-Tags  verraten Suchmaschinen, welche Seite das „Original“ ist, wobei Crawl-Bots diese manchmal ignorieren und nach eigenem Gutdünken vorgehen. Sie sind daher eher als Empfehlung zu verstehen.


Wie oft sollte der Suchindex überprüft werden?


Das hängt von der Größe der Website, der Art der Inhalte sowie etwaigen Entwicklungen hinsichtlich Technik und Sichtbarkeit ab. Generell kann jede Seite von einem regelmäßigen Index-Check profitieren. Viele Tools, wie die Google Search Console, ermöglichen Alerts, die im Bedarfsfall informieren. Wer häufig mit Content arbeitet, der schnell überholt ist – siehe „Aktualität“ –, wird öfter Hand anlegen müssen. Doch auch nach gröberen technischen Updates – vom CMS zu komplett neuen Websites – sowie unerwarteten Sichtbarkeitseinbußen, hohen Absprungraten und anderen Crawling-Fehlern oder Falschresultaten ist der Suchindex mehr als nur ein Mittel zum SEO-Zweck.

Quelle: www.searchenginejournal.com 

Copyright-Foto: unsplash.com/JK_Studio

Google Maps Ads schalten in der lokalen Suche

Nächstes Posting