Was bedeuten die Google Leaks für SEO?

Was bedeuten die Google Leaks für SEO?

Die genaue Zusammensetzung des Google-Suchalgorithmus ist nicht nur für SEOs seit Jahren und Jahrzehnten ein Mysterium, zumindest zu einem gewissen Grad. Unzählige Faktoren spielen zusammen, um Seiten und Suchergebnisse zu ranken – mit Gewichtungen, die sich durch Algorithmus-Updates immer wieder verändern können. Ein gewaltiger Leak an Dokumenten bringt nun jedoch etwas Licht in die Angelegenheit. Am 13. März tauchten über 2.000 Seiten, 2.596 Module und 14.014 Attribute auf Github auf, deren Echtheit inzwischen von Google bestätigt wurde. Steht die SEO-Landschaft nun vor einer grundlegenden Veränderung?


Nicht die aktuellste Version

Eines muss gleich vorweg geschickt werden: Beim aktuellen Leak dürfte es sich nicht um die neueste API-Version handeln. So fehlen zum Beispiel die erwarteten Metriken rund um das KI-Thema. Informationen zu Google Gemini und Google SGE  bleiben aus. Findige Experten hielten fest, dass der Leak jedoch nach August 2023 passiert sein muss, was immer noch gewaltige Aufschlüsse bietet. Zudem ist nicht bei jedem Faktor mit absoluter Sicherheit klar, ob dieser noch aktuell ist. Anhand des Document Dump bleibt offen, ob alle Attribute noch in Verwendung sind, oder ob ebenfalls „Archiv-Daten“, also mittlerweile aufgegebene Attribute und Ranking-Faktoren, einbezogen wurde. Diese sind jedoch zumindest aus historischer Sicht interessant und liefern rückblickend Aufschluss über Algorithmus-Entwicklungen und Update-Gewichtungen. Letztlich bleibt unklar, welche Gewichtung die einzelnen Faktoren haben. Manche Attribute könnten somit über Sein oder Nicht-Sein entscheiden, wären andere nur bei einer kleinen Gruppe von Seiten greifen.


Die wichtigsten Erkenntnisse auf einen Blick

Seitdem der Leak bekannt wurde – und erst recht seitdem Google die Echtheit der Dokumente bestätigte –, überschlagen sich die Analyse-Ergebnisse. Ist nun tatsächlich alles anders oder soll man wie bisher weitermachen? Die Wahrheit liegt freilich in der sprichwörtlichen Mitte.

  • Versionsgeschichte: Google hält fest, wie sich eine Seite verändert hat, und unterhält ein Archiv aller Site-Versionen, die jemals indexiert wurden. Für die genaue Analyse werden jedoch jeweils nur die 20 neuesten Änderungen herangezogen.
  • Klicks: Die Performance spielt eine große Rolle, und so wirft Google einen genauen Blick darauf, ob und wie oft eine Seite besucht wird. Allerdings wird unter anderem nach guten und schlechten Klicks sowie der Klickdauer unterschieden. Erfolgreiche Sessions, die längere Aufenthalte und vielleicht sogar weitere Suchen und Conversions generieren, sind wichtig.
  • Links: Dass Verlinkungen wichtig sind, sollte keine Neuigkeit sein. Nun ist jedoch offiziell, dass Toxic Backlinks existieren. Das Attribut „badbacklinksPenalized“ verweist auf Strafen aufgrund schädlicher Verlinkungen.
  • Abwertung: Jeder noch so gute Content kann herabgestuft werden, wenn gegen bestimmte Kriterien verstoßen wird – das ist nun klarer denn je. Potenzielle Gründe betreffen Signale für Nutzer-Unzufriedenheit, Produktbewertungen, Exact Match Domains oder unpassende bzw. irreführende Verlinkungen.
  • Spamscore: Eine genaue Erläuterung dieses Attributs fehlt in der API, lässt jedoch vermuten, dass Domains eine „Punktezahl“ für ihren Spam erhalten, auch durch vergangene schädliche Praktiken – Content-Spam, Link-Verkauf oder Hacks. Bei solchen Domains kann selbst High-Performance-Content nur schwer bis gar nicht ranken.
  • Google-Limits: Anhand bestimmter Parameter kann Google festlegen, wie viele Suchergebnisse bestimmter Content-Kategorien pro Ergebnisseite angezeigt werden. Demnach lässt sich definieren, dass nur so und so viele Blogposts sowie so und so viele Newsartikel angezeigt werden.
  • Frische: Google wirft einen genauen Blick auf zentrale Daten und findet heraus, wann ein Beitrag gepostet, eine URL angelegt oder Content verändert wurde. Die Frische des Inhalts kann zum mitbestimmenden Rankingfaktor werden.


Was SEOs nun tun sollten

Ist jetzt endlich der Grund zur Panik gekommen? Nicht für SEO-Helden, die ebenso wenig von hier an blind sein sollten. Nebst offensichtlichen Wortspielen sollten die Google Leaks vor allem nicht ignoriert werden. Zwar mögen Gewichtung sowie Aktualität nicht restlos geklärt sein, doch sind die Erkenntnisse aus diesen Attributen zu wichtig, um nicht in künftige Strategien einbezogen zu werden. Diese Ansätze und Ideen wollen verfolgt werden:

  • User Experience: Die Verzahnung von SEO und UX will noch enger gestaltet werden. Klicks sind wichtig, sollten aber auch das Attribut „goodClicks“ erfüllen. User-zentrisch angelegte Websites sind das Gateway dafür, steigern die Verweildauer und sind obendrein starke Verkaufsträger.
  • Titellänge: Der Meta-Title war laut verschiedenen Theorien auf 60–70 Zeichen beschränkt. Im Dump wird allerdings klar, dass es auch mehr sein darf. De facto verrät das Attribut „titlematchScore“, dass der Meta-Title weiterhin zentrale Bedeutung hat und zur Suchanfrage sowie zum Inhalt passen muss.
  • Content-Kürze: Im Gegenzug zeigt sich, dass Longform-Inhalte  nicht die Antwort auf alle Fragen sind. Was sich in den letzten Jahren herauskristallisierte, wurde nun bestätigt: Google kann überlangen Content unter Umständen kürzen und verteilt eine Art Punktzahl für kürzere Inhalte. Letztlich dominiert Originalität  – einzigartige, informative Inhalte, welche die Suchintention  treffen, sind der Schüssel zum Erfolg. Wie lange diese ausfallen sollten, hängt vom Thema ab.
  • Autoren: Viele Köche dürften den SEO-Brei verderben. Um sich als Autorität auf einem Themengebiet zu etablieren, sollten wenige Autoren für mehr Content herangezogen werden. Auf diese Weise können sich diese Schreiber in den Augen Googles einen Namen machen und somit auch in den Rankings als entscheidende Impulsgeber gewertet werden.
  • Verlinkungen: Dass Linkkauf und Linkaustausch gegen Google-Richtlinien verstoßen, ist ohnehin klar. Durch die Leak-Analyse wird allerdings noch deutlicher, dass die Relevanz der Links wichtig ist. Erhält man Backlinks von Seiten mit viel Traffic und entsprechender Autorität, ist das viel mehr wert als unzählige kleine Links mit wenig Aussagekraft.
  • Domainkauf: Der Ankauf alter Domains kann mit Risiken verbunden sein. Anhand der Versionsgeschichte und des Spamscore hält Google die Entwicklung von Domains fest. Entsprechend lange kann es dauern, sich mit diesen zu platzieren und etwaige „Altlasten“ loszuwerden. Umfassende Recherche, auch auf SEO- und Ranking-Ebene, ist ein Muss vor der Kaufentscheidung.
  • Zeit: Geduld ist bekanntermaßen eine SEO-Tugend, und das belegt die API-Analyse mehr denn je. Allerdings kann es nicht nur ganz schön lange dauern, bis Content-Veränderungen wahrgenommen werden oder eine Seite überhaupt rankt, auch Backlinks schlagen nicht sofort ein. Zudem werden Usersignale sowie die Spam-Verbreitung über einen längeren Zeitraum betrachtet, letzterer Punkt vermutlich, um Spamdomains sowie gehackte Sites unterscheiden zu können.

Teils Bestätigung, teils Klarstellung, teils Aufbruch zu neuen Ufern: Noch nie war so klar, wie Google analysiert und misst. Eine Anpassung der eigenen SEO-Strategie ist wichtiger denn je, zugleich unter Einbeziehung neuerer Entwicklungen, die in diesem Leak natürlich noch nicht erfasst wurden. Wie Google auf diesen Document Dump reagiert und wie sich der Algorithmus in den nächsten Monaten verändern wird, steht freilich in den Sternen. Dennoch war es wohl nie spannender bei der Alphabet-Tochter.

Quelle:www.searchenginejournal.com 
Copyright-Foto: unsplash.com/christianw

Google und Reddit – eine (unheilige) Allianz?

Vorheriges Posting

Nachfrage steigern mit Demand-Gen-Kampagnen

Nächstes Posting