Neue Dokumente aus dem Kartellverfahren des US-Justizministeriums gegen den Tech-Riesen Google offenbaren, wie stark das Ranking in der Suche noch immer auf händisch gepflegten Signalen basiert, und wie tief Google-Entwickler tatsächlich in die Ergebnisse eingreifen.
Besonders interessant ist, das vielzitierte „Navboost“-System, dem viele in der SEO-Szene mystische Machine-Learning-Fähigkeiten zugeschrieben hatten, entpuppt sich als simpler Klickzähler in Tabellenform.
Navboost – kein Machine Learning, nur eine riesige Tabelle
In einer Anhörung erklärte Dr. Eric Lehman, ehemaliger Distinguished Engineer bei Google, wörtlich: „Navboost ist kein Machine-Learning-System. Es ist einfach nur eine große Tabelle.“ Darin wird festgehalten, wie viele Klicks ein bestimmtes Dokument bei einer bestimmten Suchanfrage erhalten hat, mehr nicht. Zwar gibt es zusätzliche Datenfelder, doch im Kern handelt es sich um ein Klick-Log. Für jede Query wird festgehalten, welche URL wie oft angeklickt wurde.
Damit wird deutlich, dass Google Click-Through-Daten nicht nur speichert und bewertet, es nutzt sie offenbar aktiv, um Ergebnisse zu gewichten. Das steht im Widerspruch zu jahrelangen öffentlichen Aussagen von Google, wonach Nutzersignale „nicht direkt“ zur Bewertung herangezogen würden.
Handarbeit statt KI: Die Rückkehr der „gemachten Signale“
Noch aufschlussreicher ist die Information ein paar Seiten weiter: „Fast jedes Signal, außer RankBrain und DeepRank, ist handgemacht und kann von Ingenieuren analysiert und angepasst werden.“
Das bedeutet: Googles Ranking basiert nicht auf einer Blackbox-KI, sondern auf klassischen Formeln wie Sigmoidfunktionen, bei denen Schwellenwerte manuell festgelegt werden. Dieser Prozess wird intern als „Hand Crafting“ bezeichnet, also die bewusste Modellierung von Relevanzsignalen durch menschliche Eingriffe.
Besonders heikel ist dabei, dass auch das sogenannte „Pogosticking“, also das schnelle Zurückspringen von der Zielseite auf die Suchergebnisseite, intern als Relevanzsignal verwendet wird. Öffentlich hatte Google dies stets als unzuverlässig abgetan und abgestritten.
Einblick ins Debugging: Wie Googles Entwickler-Rankings live beobachten
Das Dokument beschreibt zudem ein internes Tool, das Googles Entwickler zum Debugging von Suchanfragen verwenden. Es zeigt eine Liste der zehn Suchergebnisse („blaue Links“) inklusive der Punktzahl für jedes einzelne Signal sowie einem Gesamtwert („Final IR“) – eine Art internes Relevanz-Rating.
So wird klar, dass Googles Entwickler jederzeit die Möglichkeit haben, genau nachzuvollziehen, warum ein bestimmtes Ergebnis oben steht, und könnten es theoretisch auch direkt beeinflussen.
Q*, RankEmbed und Twiddlers – Googles geheime Zutaten
Auch weitere Begriffe aus der Dokumenten-Sammlung sind interessant:
- Q* scheint eine zentrale, aber nicht näher erklärte Qualitätsmetrik zu sein
- RankEmbed nutzt laut Beschreibung Embeddings, um Suchbegriffe und Inhalte semantisch besser zuzuordnen
- Twiddlers sind nachträgliche Modifikatoren, die Rankings personalisieren oder korrigieren
All diese Begriffe tauchten bislang nicht in offiziellen Google-Dokumentationen auf, sind aber offenbar integraler Bestandteil des Ranking-Mechanismus.
„Wir haben euch kaputt optimiert“ – Google räumt eigene Fehler ein
Nur wenige Wochen vor dem Leak veranstaltete Google ein sogenanntes Creator Submit mit ausgewählten Bloggern und Publishern aus den USA. Dort überraschten Googles Vertreter mit einem ungewöhnlich selbstkritischen Ton. Wörtlich hieß es: „Google hat im Laufe der Jahre unbeabsichtigt lange, schlüsselwortlastige Inhalte gefördert, was dazu führte, dass viele von uns Entwicklern anfingen, für den Algorithmus statt für echte Menschen zu schreiben.“
In mehreren Gesprächsrunden sollen sich die Vertreter sogar explizit entschuldigt haben. Einer der Teilnehmer berichtet: „Google erklärte, es sei sich der notwendigen Änderungen bewusst und die Verantwortung liege bei Google, nicht bei uns. Unsere Seiten verdienen ein höheres Ranking.“
Diese Aussagen wirken fast wie ein Schuldeingeständnis, allerdings ohne konkrete Folgen. Denn wie die Dokumente zeigen, hätte Google längst die Werkzeuge in der Hand, um das Problem zu beheben. Die Signale sind analysierbar, justierbar und wurden bewusst so implementiert, dass bestimmte Ergebnisse bevorzugt werden. Es ist also keine technische Limitierung, sondern eine unternehmerische Entscheidung.
Warum das alles relevant ist, besonders für unabhängige Seiten
Die Dokumente zeigen, was viele Publisher seit Jahren vermuten: Google ist kein neutraler Vermittler von Informationen. Die Kombination aus manuell gesetzten Schwellenwerten, harten Eingriffsmöglichkeiten und selektiver Nutzung von Nutzersignalen macht das Ranking massiv beeinflussbar, ob gewollt oder nicht.
Für kleine Seiten, die keine eigene Marke oder kein starkes Nutzerverhalten vorweisen können, bedeutet das, dass ohne gezielte Anpassung an Googles Spielregeln Sichtbarkeit kaum möglich ist.
Und diese Spielregeln, so zeigen die Dokumente, sind nicht transparent, nicht neutral und schon gar nicht automatisiert fair.
Google steht nicht nur wegen wettbewerbsrechtlicher Vorwürfe unter Druck, sondern auch, weil es ein Bild von sich selbst gezeichnet hat, das so offenbar nicht stimmt. Die Realität ist ein manuell konfiguriertes, klickbasiertes Bewertungssystem mit internen Stellschrauben, die keinem öffentlichen Kodex folgen.
Was diese Erkenntnisse für die SEO-Branche, für Publisher und für das Vertrauen in die digitale Informationsordnung bedeuten, ist noch gar nicht absehbar. Doch eines ist klar: Der Mythos der neutralen Google-Suche ist damit endgültig vom Tisch.
Die Dokumente: