John Müller, Gary Illyes und Martin Splitt sind alle im Search-Relations-Team bei Google und dafür bekannt, dass sie hier und da Fragen über die Funktionsweise der Suchmaschine beantworten. In der aktuellen Folge des Google-Podcasts „Search Off The Record“ sprechen die drei darüber, wie sich SEO in den letzten zehn Jahren entwickelt hat und wie wohl die Zukunft aussieht.
Wird man HTML-Kenntnisse für SEO brauchen?
Müller beginnt damit, dass viele Websites die technische Infrastruktur outsourcen – beispielsweise indem sie auf Servern von Dienstleistern gehostet werden. Wenn also die technischen Grundlagen wegfallen, stellt er die These auf: In Zukunft wird es nicht nötig sein, dass SEOs HTML erlernen.
Splitt und Illyes widersprechen sofort. Zwar habe Müller recht, wenn er von fortgeschrittenen Content-Management-Systemen spricht, aber es bleiben weitere wichtige SEO-Maßnahmen, die HTML benötigen: Canonical-Tags, Href-Links und so weiter. Dazu seien, so Splitt, die erfolgreichsten CMS meistens die, die neben einem einfachen Interface auch die Möglichkeit bieten, mit HTML Anpassungen vorzunehmen. Dazu werden neue Meta-Tags oder Robots-Directives für SEOs veröffentlicht und die Dokumentationen für diese geschrieben, nicht für Seitenbetreiber. Die drei einigen sich am Ende: HTML ist und bleibt wichtig für SEO.
Apps auf allen möglichen Endgeräten, ergo JavaScript
Müller stellt die These auf: Nutzer:innen werden in Zukunft alle ihre Programme und Apps auf allen ihren Endgeräten nutzen wollen. Das wiederum bedeutet, dass JavaScript nur noch relevanter für SEO wird. Auf der anderen Seite heißt das, dass viele Apps überhaupt zum ersten Mal richtig SEO betreiben müssen, wenn es sie plötzlich auch als PWA, Progressive Web App, gibt. Dem stimmt Illyes zu und erwähnt, dass das ein Bereich ist, der in der Vergangenheit noch zu wenig besprochen und untersucht wurde. Denn oft gebe es das Problem, dass die Google-Bots die Web-Apps nicht einordnen und bewerten könnten. Deswegen bestünde die Frage: „Wie kriege ich das in eine Suchmaschine?“ Illyes vermutet, dass technisches SEO deutlich technischer und komplexer wird in Bezug auf die Arbeit mit JavaScript. Müller ergänzt, dass bestehende SEO-Strategien mit komplett andere Seitentypen kombiniert werden müssen.
URLs gehen nirgendwohin
URLs werden in der absehbaren Zukunft auf jeden Fall bleiben. Sie sind die Standardmethode, um den Ort einer Ressource anzugeben und zu teilen. URLs und IP-Adressen müssen existieren, einfach aufgrund der Art wie das Internet gebaut ist und funktioniert. Illyes erinnert daran, wie schwer es war, IPv6 einzuführen. Splitt meint, dass so, wie IP-Adressen mit Version 4 auf Version 6 ihr Format geändert haben, URLs in Zukunft anders aussehen könnten – aber das Prinzip werde bleiben. Und wenn URLs bleiben, bleiben auch Links.
Meta-Tags: „Ich hoffe, wir führen nicht noch mehr Meta-Tags ein“
Bei Canonical-Tags sind sich Illyes und Müller einig: Canonical-Tags sind für die Funktionsweise der Suchmaschine nicht wirklich relevant. Google könne technisch absolut allein entscheiden, welche Seite in der Suche ausgespielt wird. Illyes erwähnt aber, dass der Canonical-Tag vor allem Seitenbetreibern Entscheidungsfreiheit darüber gibt, welche Seite angezeigt werden soll.
Insgesamt hofft Splitts, dass nicht noch mehr Meta-Tags eingeführt werden. In der Regel gebe es genügend Möglichkeiten, es müsse nicht für alles ein eigener Tag eingeführt werden. Denn dann müssten die Menschen nur unnötig viele neue Tags lernen. Es gebe selten einen guten Grund für die Einführung eines neuen Meta-Tags.
Strukturierte Daten bleiben als Kontrollmechanismus – oder doch nicht
Müller wirft die Frage ein, ob nicht Suchmaschinen mittlerweile sehr gut allein erkennen könnten, ob eine Produktseite eine Produktseite ist. Laut Splitt sind strukturierte Daten in der Hinsicht tatsächlich überflüssig, Google erkenne diese Dinge automatisch. Er sehe strukturierte Daten eher als eine Art Opt-in, um in verschiedenen Produkten und Diensten von Google zu erscheinen, sodass Google diese Daten auch verarbeitet und anzeigt. Illyes geht dagegen davon aus, dass es dazu kommen wird, dass strukturierte Daten überflüssig werden. Es gebe auch genug andere Möglichkeiten, bestimmte Präsentationsformen auszuschließen. Das Verständnis der verschiedenen Entitäten sei bereits so gut, dass weniger es die Frage ist, ob es passiert, sondern wann. Eventuell bleibt es aber als „override“ – um also Googles Fehler zu korrigieren.
Ist es antiquiert, das Web zu crawlen?
Müller erwähnt, dass er die ganze Crawling-Sache ziemlich antiquiert findet – also alle Inhalte permanent zu scannen. Splitt erwähnt, dass es dort durchaus Veränderungen geben wird: Bisher ziehe sich Google permanent einzelne Seiten. Er erwähnt den Push-Ansatz, den es bei Bing gibt – gibt aber zu bedenken, dass das viel mehr Aufwand auf allen Seiten bedeutet und es sicher ein Problem mit Spam geben würde. Stattdessen will er eine intelligentere Lösung sehen und beispielsweise Ressourcen sparen, indem nicht dieselbe URL ständig wieder gecrawlt wird, oder eine schlauere Variante, wie Content indexiert wird.
Automatisch generierter Content – da scheiden sich die Geister
Bei Content, der von KI generiert wird, bleiben die Fragen offen. Wenn nicht mehr zu unterscheiden ist, ob Texte von Menschen oder Maschinen geschrieben werden – ist es dann nicht gleichwertig? Und was ist mit falschen Informationen, die eine KI einbaut? Hängt das nicht doch mit menschlichem Versagen zusammen, weil jemand der KI falsche Sachen beigebracht hat? Und gibt es nicht auch genügend falsche Informationen durch Menschen? Wie notwendig ist eine Prüfung durch Menschen, nachdem eine Maschine den Text generiert hat?
Voice-Search: „Oh Gott, das wird niemals die Zukunft sein“
Entgegen vielen Trendreports ist Splitt der Meinung, dass Voice-Search vollkommen überbewertet wird. Seit den 90ern werde davon geredet, dass Tastaturen ein Ablaufdatum hätten, aber seitdem sei nichts passiert. Das werde nicht natürlich oder ganz magisch die primäre Sorge sein. Es würde die Art des Inputs verändern und wie genau Suchbegriffe formuliert würden – aber den fundamentalen Baustein, dass die natürliche Sprache verwendet wird, das bleibe ohnehin gleich. Illyes wirft aber ein, dass Menschen ihre Gedanken vielleicht mit der Suchmaschine teilen, um so Dinge herauszufinden.
Wird die Suchmaschinenoptimierung sterben?
Alle drei kommen im Laufe des Podcasts immer wieder überein: Es wird immer Arbeit für SEOs geben – zumindest damit Menschen passende Artikel finden, wenn sie sich fragen, ob die Suchmaschinenoptimierung stirbt.
Die drei beenden den Podcast mit dem Hinweis, dass auch sie die Zukunft nicht genau vorhersehen können – und dass vielleicht doch alles ganz anders kommt.
Falls ihr den Podcast nicht hören könnt, findet ihr in diesem PDF das Transkript.