Studie: Googles KI-Suche bricht die älteste SEO-Regel
Jahrelang galt in der Suchmaschinenoptimierung das Mantra der Top-10-Platzierung als unumstößliches Ziel. Eine aktuelle Studie stellt diese Annahme nun fundamental infrage.
Konkret zeigt die Untersuchung, dass KI-gestützte Suchdienste wie Googles AI Overviews (AIO) ihre Antworten oft auf Quellen stützen, die in der traditionellen organischen Suche weit abgeschlagen wären.
Verantwortlich für die Analyse ist ein Team deutscher Forscher:innen, darunter die Forscherin Elisabeth Kirsten und der Forscher Jost Grosse Perdekamp von der Ruhr-Universität Bochum sowie Kolleg:innen des Max-Planck-Instituts für Softwaresysteme (MPI-SWS) mit Standorten in Kaiserslautern und Saarbrücken.
Mehr als die Hälfte der Quellen nicht in den Top 10
Die Forscher:innen verglichen die organische Google-Suche des Unternehmens aus dem kalifornischen Mountain View mit vier generativen Systemen: Googles AIO, Gemini sowie zwei Varianten von GPT-4o des Unternehmens OpenAI.
Das Kernergebnis: 53 Prozent der von Google AI Overviews zitierten Domains tauchten nicht in den organischen Top-10-Treffern für dieselbe Anfrage auf.
Mehr noch: 27 Prozent der genutzten Quellen fanden sich laut dem Pre-Print auf Arxiv nicht einmal unter den Top 100 der Google-Ergebnisse. Die Popularität der Domains maßen die Forscher:innen anhand des anerkannten Tranco-Domain-Trackers.
Definiert KI „Autorität“ neu?
Diese Abweichung bedeutet nicht zwangsläufig, dass die KI-Ergebnisse qualitativ schlechter sind. Die Studie ist zunächst eine reine Charakterisierung des Status Quo.
Sie zeigt jedoch, dass die KI-Modelle offenbar in der Lage sind, Inhalte aus dem „tieferen Web“ zu extrahieren und als relevant einzustufen, selbst wenn diese traditionelle Popularitätssignale wie Backlinks vermissen lassen.
Das könnte eine Neudefinition des Begriffs „Autorität“ für die Suchmaschinenoptimierung (SEO) erfordern. Es scheint, als würden die Modelle Popularität (Link-Rank) durch andere Kriterien ersetzen, etwa wie gut ein Inhalt für die maschinelle Synthese geeignet ist.
Schwächen bei Aktualität und Mehrdeutigkeit
Die Studie offenbart aber auch klare Nachteile der generativen Suche. Die Forscher:innen stellten fest, dass die KI dazu neigt, „Informationen zu komprimieren“.
Dabei würden „sekundäre oder mehrdeutige Aspekte“ oft weggelassen, wie es im Papier heißt. Bei uneindeutigen Suchanfragen lieferte die organische Suche eine bessere Abdeckung verschiedener Interpretationen.
Eine weitere Schwäche zeigte sich bei der Aktualität. Wie Ars Technica berichtet, versagte das GPT-4o-Tool bei der Abfrage von Trend-Themen oft und bat stattdessen um „mehr Informationen“.
Die KI-Übersichten von Google selbst, die seit diesem Jahr auch in Deutschland ausgerollt werden, wurden bei zeitkritischen Anfragen in der Studie fast nie ausgelöst.
Das Fazit der Forscher:innen ist daher methodisch: Die Branche benötigt neue Bewertungsverfahren für Suchergebnisse, die über das klassische Ranking hinausgehen und Faktoren wie Quellvielfalt und Syntheseverhalten berücksichtigen.
Für Publisher:innen und SEO-Verantwortliche nährt die Studie die Sorge, dass Investitionen in traditionelle Rankings durch die KI-Suche entwertet werden könnten. Gleichzeitig eröffnet sie die Chance, dass auch Inhalte jenseits der Top 10 eine neue Relevanz als Datenquelle für KI-Antworten erhalten.