Google-Entwickler: Was für dein SEO 2020 wirklich wichtig ist
t3n: Du bist Webmaster-Trends-Analyst bei Google. Was machst du genau?
Martin Splitt: Das Trends-Analyst-Team bei Google besteht aus Developer-Advocates. Wir sind die Brücke zwischen den internen Engineering-Teams und der externen Community, also Webmastern, Developern, Suchmaschinenoptimierern, Online-Marketern, Publishern.
t3n: Wie ist dein Beziehungsstatus zum Googlebot?
Wir sind gute Freunde. Ich befasse mich hauptsächlich mit dem Rendern und Indizieren von JavaScript und von JavaScript getriebenem Content, also Single-Page-Applications und so weiter. Ich schaue auch mal ins Indexing und Crawling rein, aber mein Hautpgebiet ist das Rendern.
t3n: Welche SEO-Probleme seht ihr aus Google-Perspektive bei den Seitenbetreibern immer wieder?
Das ist alles Mögliche und hängt auch von der Branche und dem Land ab. Oft sind es ganz einfache Sachen wie das versehentliche Setzen größerer Seitenteile als Noindex oder Bilder ohne Alt-Attribut. Wir sehen auch oft, dass Seiten schlechten Content haben und dass nicht gut in den Content investiert wird, was recht schade ist. Linkspam, bei dem sich Leute durch das Setzen unnatürlicher Links einen Vorteil erspielen wollen, ist nach wie vor ein Problem. Häufig sind auch Probleme technischer Natur, bei denen Entscheidungen getroffen wurden, durch die Content nicht für den Googlebot sichtbar ist.
t3n: In wenigen Worten: Was ist guter Content für Google?
Das, was den Nutzer weiterbringt. Wenn es relevant für den Nutzer ist und wenn es Content ist, den es nicht schon zig Mal woanders im Web gibt, dann ist es guter Content.
t3n: In einer Videoreihe auf Youtube sprichst du über SEO-Mythen. Was sind die hartnäckigsten Falschvorstellungen zu SEO?
Viele Dinge. Da kann man auch ganz viel aufklären, die Leute kommen trotzdem immer wieder damit zurück. Es hält sich zum Beispiel hartnäckig, dass es eine optimale Länge für Titel und Meta-Descriptions gebe. Das ist nicht so. Du beschreibst deinen Content, knapp und prägnant. Es gibt nicht die optimale Länge, sondern es muss für den Nutzer stimmen.
Dann glauben manche Leute, sie kaufen jetzt ein paar Links und es wird alles gut. Ja, Links sind sicherlich wichtig, aber sie sind nicht das Allerwichtigste. Außerdem halten sich noch hartnäckig die Mythen, dass diese ganzen Drittanbieter-Tools mit ihren seltsamen Scores irgendwie wichtig sind. Dann heißt es: „Der Anbieter hat den Score, den Google doch auch benutzt“ – das ist halt Quatsch. Es gibt Hunderte von Ranking-Faktoren und das lässt sich nicht auf einen Score herunterbrechen. Wir haben zwar immer noch so etwas ähnliches wie den Page-Rank, aber eben nicht den eigentlichen alten Page-Rank, den man sich auch anzeigen lassen konnte. Der spielt auch keine Rolle mehr.
Auch kaum auszurotten: „Googlebot kann ja JavaScript gar nicht richtig ausführen.“ Das ist Blödsinn.
Martin Splitt: „Viele SEO-Mythen halten sich hartnäckig“
t3n: Was hilft euch dabei, SEO-Mythen auszuräumen?
Auf unserem Youtube-Kanal gibt es viel Content, den wir sorgfältig zusammenstellen und aktuell halten. Wir sind Speaker auf diversen Konferenzen wie Chrome Dev Summit, Google IO sowie externen Events. Es hilft, sich die Videos von den Auftritten anzuschauen. Wir fragen uns immer: Was sind die Wissenslücken der Community, wie können wir die stopfen? Vieles davon fließt zurück in die Dokumentation. Wir verteilen aktuelle Informationen über Twitter und den Webmasters-Blog. Diese Kanäle sollte man nicht aus den Augen verlieren, da kann man sich gut auf dem Laufenden halten.
t3n: Die Grenze zwischen klassischer Website und App verschwimmt. Nehmen wir an, ich spiele Content als Desktop- und Mobile-Website, als PWA und als App aus. Wie sollte ich für SEO optimieren?
Wenn ich responsives Webdesign mache und Inhalt für verschiedene Kanäle entsprechend aufbereitet bereitstelle, ist das eigentlich nichts Problematisches. Eine Progressive-Web-App ist für uns letztlich nichts anderes als eine Website und wird indexiert. Fehleranfälliger kann es sein, wenn Leute eine separate Domain oder Subdomain für mobil haben, also M-dot-Websites. Die waren mal eine gute Empfehlung, inzwischen sehen wir aber ein, dass das mehr Aufwand macht beim Testen und Warten. Es kann zum Beispiel passieren, dass die M-dot-Domain in den Desktop-Suchresultaten erscheint.
t3n: Wie wichtig ist es, dass eine Website mobilgerätefreundlich ist?
Sehr wichtig. Es ist sehr viel Traffic, den man verliert, wenn man sich nicht auf mobile Nutzung einlässt. Mobilgeräte sind sehr dominant geworden in unserem Alltag. Wir steigen zunehmend auf die Indizierung der Mobilseiten um. Wenn Content über die mobile Variante gar nicht erreichbar ist, dann ist das nicht optimal.
t3n: Worauf sollte ich achten, wenn ich mein Angebot auch für Voice-Search gut aufstellen will?
Voice-Search ist auch so ein Thema, das meiner Meinung nach komplett überbewertet wird. Nicht, weil es nicht wichtig wäre. Aber es ist nichts, worauf ich speziell eingehen muss: Fragen, die heute per Tastatur eingegeben werden, werden dann eben per Spracheingabe gestellt. Mag sein, dass sich Fragesätze ein bisschen ändern, aber eigentlich mache ich dasselbe wie heute auch schon: Ich schaue mir an, welche Anfragen eigentlich zu meinen Themen kommen und optimiere dann darauf, dass ich Content habe, der relevant ist für die Leute, die nach diesen Sachen suchen.
t3n: Die Performance ist eines der zentralen Signale für ein gutes Ranking. Auf welche Metriken sollte ein Seitenbetreiber hier besonders achten, wenn er sich verbessern will?
Grundsätzlich gilt, der Content muss so schnell wie möglich zum Nutzer. Im Detail kommt es auf die Seite an: Wenn ich sehr viel Content habe, der größtenteils statisch ist, können Largest-Meaningful-Paint und das First-Contentful-Paint wichtig sein. Es kann aber auch sein, dass mein Server besonders langsam ist und dass ich dann doch nach Time-to-First-Byte schauen muss. Es nützt ja nichts, wenn der schlussendlich übertragene Inhalt zwar ganz schnell rendert, aber das Übertragen selbst sehr lange dauert. Wenn ich eine recht interaktive Website habe, ist es frustrierend für den Nutzer, wenn der Time-to-Interactive beziehungsweise der First-Input-Delay zu lange dauert.
t3n: Welche Fallen lauern beim Messen der Performance?
Es gibt den Chrome-User-Experience-Report, da werden Real-User-Metrics abgefragt, also das, was die Nutzer real auf meiner Website erleben. Developer-Tools wie Lighthouse zum Beispiel laufen dagegen im Endeffekt von meinem eigenen Rechner. Der ist oft schneller und besser angebunden ist als das, was viele Nutzer zur Verfügung haben. Gerade, wenn die ein älteres Mobilgerät benutzen und viel unterwegs sind, kann es sein, dass sie nur mit Edge surfen. Da muss man drauf achten. Ähnliches gilt für so Sachen wie Web-Page-Test und Co., das sind auch nicht Real-User-Metrics, sondern letzten Endes Daten aus Laborbedingungen.
t3n: Mit welcher Strategie kann ich am schnellsten Performancegewinne erzielen?
Man sollte zusehen, seine Website nicht mit Müll vollzustopfen, den man nicht braucht. Dass man einen schnellen Server hat. Dass man ein Content-Delivery-Network benutzt, wenn man ein breit oder global aufgestelltes Publikum hat. Man sollte die eigene Website messen und schauen: Wo liegen große Potenziale ungenutzt? Und da geht es eben nicht darum, von Lighthouse-Score 90 auf 95 zu kommen, sondern: Was sind die Sachen, die Nutzern im Zweifelsfall wirklich auf die Füße fallen? Ich kann ja einen Score von 90 haben, aber zum Beispiel eine total hohe Time-to-Interactive. Da muss man dann ansetzen.
JavaScript und SEO: Wo die Fallen lauern
t3n: Eine Website arbeitet viel mit JavaScript. Wo kann das zu Problemen mit SEO führen?
Da kann es viele Probleme geben, nicht nur auf SEO beschränkt. HTML kann geparsed werden, noch während es eintrifft. Das geht mit JavaScript nicht. JavaScript muss komplett heruntergeladen werden, erst dann kann es geparsed und ausgeführt werden, wobei es zusätzlichen Content erzeugt. Das dauert länger, als HTML zu streamen. JavaScript kann also die Seite langsamer machen, ohne dass es von den Entwicklern gewollt ist. Anderes Problem ist: Wenn ich mich komplett auf JavaScript verlasse und beim Laden bricht die Datenverbindung des Nutzers ab, dann sieht er – im Gegensatz zu einer HTML-Seite – einfach nichts, eine weiße Seite. Das ist keine gute Nutzererfahrung.
Hält man sein JavaScript bei Client-Side-Rendering klein und effizient, dann ist das kein Problem. So, wie es viele machen, ist es aber richtig viel JavaScript. Ich stelle mir immer vor, wir bewerfen die Leute mit mehreren Disketten, weil das JavaScript teilweise fünf, sechs Megabyte umfasst. Und dazu sagen wir: „So, lass krachen.“ Das ist nicht cool. Klar wird die Übertragungsgeschwindigkeit tendenziell schneller, aber das heißt ja nicht, dass wir unnötiges Gedöns durch die Leitung schießen müssen.
t3n: Ist JavaScript eine häufige Fehlerquelle beim Webdesign?
Bei JavaScript kann es zu Fehlern kommen, die nicht so offensichtlich sind. Viele Entwickler erwarten zum Beispiel, dass der Service-Worker immer installiert wird, das ist aber nicht unbedingt der Fall. Googlebot zum Beispiel lehnt die Service-Worker-Installation ab, das heißt wenn das JavaScript davon abhängt, dass ein Service-Worker installiert wurde, habe ich schon wieder schlechte Karten.
Die Leute vergessen auch gerne mal die kompletten Basics. So etwas wie einen einzigartigen Seitentitel, der die Seite wirklich beschreibt. Da haben dann alle Seiten deiner Website denselben Titel, das ist Mist. Oder sie vergessen die Meta-Description, das ist auch traurig, weil der Nutzer darüber mehr Informationen erhält, warum er dieses Suchresultat anklicken sollte. Teilweise wird ein JavaScript von einem Third-Party-Anbieter in den Head gesetzt und das generiert ein iFrame, das automatisch den Head schließt. Dann steht alles, was hinter diesem JavaScript im Head steht, plötzlich im Body. Bestimmte Sachen können aber nicht im Body stehen und werden dann ignoriert – hreflang ist eine ganz klassische Implementierung davon.
JavaScript ist ein tolles Werkzeug. Es bringt sehr viele Möglichkeiten und Funktionen mit sich, mit denen man schlaue Dinge tun kann. Man kann wunderbares Lazy Loading bauen, sehr schöne User-Interactions aufsetzen. Es kommt ganz darauf an, wie man es einsetzt, man muss auf jeden Fall testen, testen, testen. Und ich habe auch das Gefühl, dass gerade Entwickler sich der Suchthematik nicht hinreichend bewusst sind.
t3n: Welche Testing-Tools sollte ich für SEO derzeit im Auge haben?
Auf jeden Fall die Search-Console, denn wir wollen immer mehr Informationen über die Search-Console verfügbar machen, damit Leute den Status ihrer Website im Auge behalten und sinnvolle Entscheidungen treffen können.
Für Entwickler ist der Mobile-Friendly-Test interessant. Da kann ich eine URL reinwerfen und schauen: Habe ich JavaScript-Fehler? Sind Ressourcen nicht erreichbar? Wie sieht das gerenderte HTML aus? Im Rich-Results-Test kann ich meine strukturierten Daten zumindest für die Rich Results überprüfen. Dort kann ich aber auch auswählen ob ich den Desktop-Bot oder den Mobile-Bot sehen will.
Lighthouse ist für Performance-Messung nützlich, aber ein bisschen tricky. Lighthouse will den Leuten eine grobe Einschätzung mit den Score zu geben, den muss man mit ein bisschen Vorsicht genießen. Es gibt Tipps dazu, auf welche Metriken man schauen sollte und Hinweise, wo sich die eigene Seite nicht so gut macht. Die SEO-Audits sind sehr grundlegend, das würde ich nicht als das SEO-Tool empfehlen. Es sagt nur in einem suchmaschinen-agnostischen Ansatz: Ihr macht zumindest die Basics nicht falsch. Ein SEO-Score von 100 heißt dann aber auch nicht, dass ihr alles richtig macht.
t3n: Was willst den Black-Hat-Suchmaschinenoptimierern da draußen mal mitgeben?
Fokussiert euch doch lieber drauf, wie ihr guten Content für eure Nutzer produzieren könnt und wie ihr euren Klienten helfen könnt, ihre Nutzer zu erreichen, als eure Zeit damit zu verschwenden, das Web mit Linkmüll vollzustopfen. Das hilft niemandem und trägt auch nur zum schlechten Ruf von SEO bei, den es teilweise hat.
t3n: Vielen Dank für das Gespräch.
Sehr interessantes Interview. Vielen Dank.
Zeigt mal wieder, dass man bei SEO nie aufhört zu lernen. Die ständige Weiterentwicklung von Google hält die Entwickler immer auf trapp. Auch sehr interessant, dass man den Lighthouse-Score mit Vorsicht genießen sollte. Das ist mir völlig neu und zwingt mich dazu noch mal ein paar Tests zu machen.
Danke für diesen super Artikel und die Insights. Und endlich bestätigt sich auch einmal meine Skepsis ggü. Lighthouse und den Page Speed Insights, besonders mobil ist der Score teilweise sehr unverständlich im Vergleich von verschiedenen Seiten, bei denen manche trotz möglicher Einsparungen von 3,5s (z.B. für Bilder in anderen Formaten) einen Score >85 haben und es manchmal fast keine Optimierungshinweise gibt und man nicht über 70 kommt.
Danke, für den Beitrag, dass Google JavaScript ausführt ist mir neu, mhh man lernt nie aus… :)
> ein älteres Mobilgerät benutzen und viel unterwegs sind, kann es sein, dass sie nur mit Edge surfen
Was redet dieser Hacho, niemand benutzt Edge, ganz besonders nicht mobile.
https://de.statista.com/statistik/daten/studie/184297/umfrage/marktanteile-mobiler-browser-bei-der-internetnutzung-in-deutschland-seit-2009/
Troll?
Der Mann redet von dem Übertragungsstandard „Enhanced Data rates for GSM Evolution“, kurz EDGE.
Das ist noch analog und besitzt eine Übertragungsgeschwindigkeit von 220 KBit/s (vs. 300.000 KBit/s beim Telekom LTE).
https://www.handyhase.de/magazin/2g-3g-lte-mobilfunkstandards-im-vergleich/#4g-lte–der-datenturbo
wobei wenn dies mit Voice-Search kommen sollte, dann gäbe es doch nur noch eine Antwortmöglichkeit, oder wie läuft dies in der Praxis?
Jedenfalls die Spielerei mit den FAQs funktionieren aktuell noch, daß man in der Google-Suche die eigenen FAQs implementiert, z.B. bei mir mit
https://www.google.de/search?source=hp&ei=6-AdXt_UAquQrgT5mbbgBA&q=iphone+11+kabellos+laden&oq=iphone+11+kabe&gs_l=psy-ab.1.0.0l10.480.6281..9156…0.0..0.340.2930.0j6j7j1……0….1..gws-wiz…….0i131.-bMOuOwoekQ
Ja, das leide ige Thema mit Google. Ich finde es wirklich Schade, dass es keinen erstzunehmenden Konkurrenten für Google gibt. Nichts ist für die Ewigkeit und alles hat eine Ende nur die Wurst hat zwei…
Gut dass er das Thema Offpage anspricht. Das scheint bei einigen Unternehmen so zu sein, dass es auf die leichte Schulter genommen wird. Dabei ist der Offpage Prozess mit seinen ganzen Metriken ein komplexes Feld und kann bei Fehlentscheidungen zum Trafficeinbruch führen, vgl. https://www.khoa-nguyen.de/seo/offpage-optimierung-prozess/. Viele denken auch nicht daran, dass auch Nichtstun die Seite ins Nichts stürzen kann. Ein vernachlässigter Offpage Audit sehe ich immer wieder.
Hallo,
zuerst mal vielen Dank für die interessanten Informationen aus erster Hand, einen besseren Ansprechpartner wird man kaum finden können.
Es gibt tatsächlich unzählige SEO Tools, die meisten sind auch in der Regel erstmal kostenlos, aber wenn es um präzise, tiefgreifende Analysen geht, mit relevanten Infos, dann stoßen die gratis Tools schnell an ihre Grenzen. Dabei bietet das kostenlose Tool von Google selbst, alle relevanten Infos, die man braucht. Zuverlässiger können die Werte nicht sein, als von Google selbst.
Hätte man sich ja auch fast denken können. ;)
Dadurch, dass sich die Google Richtlinien (z.B. durch Google Updates) stets verändern, entstehen auch immer wieder Mutmaßungen und Informationsdefizite, dadurch wiederum halten sich auch die falschen SEO Mythen, bzw. entstehen immer wieder Falschvorstellungen.
VG
Besten Dank für den guten Artikel. Finde auch das zu wenig in guten Content investiert wird. Hier sollte mehr Augenmerk darauf gelegt werden. Auch für kleine Unternehmen.
Vielen Dank für den tollen Artikel. Ich denke auch, dass viel zu viel Wert auf Scores von diversen Anbietern gelegt wird anstatt sich auf benutzerfreundlichen, interessanten Content zu konzentrieren. Am Ende werden sich qualitativ hochwertige Seiten sowohl bei Google als auch beim Kunden durchsetzen.