Vergiss den Bot: 4 SEO-Maßnahmen für Menschen
Immer dann, wenn Google etwas am Algorithmus ändert, ist Weihnachten für SEO-Agenturen. Sie geben Tipps und verkaufen Tricks, mit denen sich die neuesten Änderungen ausnutzen lassen. Bis zum nächsten Update – und wieder von vorne.
So komplex das im Einzelfall auch sein mag, ist die Essenz von moderner SEO doch in einem Satz zu beschreiben: Optimiere für deine Nutzer, nicht für eine Suchmaschine. Denn schließlich willst du menschliche Nutzer erreichen – es sei denn, Bot-Traffic ist deine wichtigste Einnahmequelle. (Dann solltest du vielleicht eh woanders weiterlesen.)
„Es menschelt weiter“, schrieb folgerichtig auch t3n, und manch einer schlägt bereits vor, SEO als „Search EXPERIENCE Optimization“ neu zu definieren.
Überhaupt, „Experience“. Wer gute SEO macht, der schafft ein Erlebnis. Ganz klassisch durch den Content, aber eben auch – und zunehmend – durch die Usability, die eine Website bietet. Neu beantwortet werden muss also die Frage: Welche Faktoren haben dabei einen positiven Einfluss auf SEO?
User-Experience ist mehr als Design
Dieser Begriff fasst alle Aspekte der „Nutzerfreundlichkeit“ zusammen: relevante, attraktive Inhalte, gut lesbare Texte, eine klare Seitenstruktur und kurze Ladezeiten – um nicht gleich alles zu nennen. Eine gute UX führt den Nutzer schnell an sein Ziel. Nur dann bleibt er auf der Website und kehrt vielleicht zurück.
Dafür muss der Nutzer die Inhalte auch wirklich „erleben“ können. Und das geht nur, wenn die Website schnell geladen ist und auf jeden Klick direkt reagiert. Der eigentliche Content ist dabei gut in den Griff zu bekommen, CMS sei Dank. Täglich neue Artikel in den Shop stellen oder Blog-Posts zu aktuellen Themen schnell zu veröffentlichen ist kein Problem. Anders sieht das aber bei Aufgaben aus, die den grundlegenden Code der Website betreffen. Und genau hier ist die Problemzone für eine wirklich gute UX. An dieser schwer steuerbaren Stelle entscheidet sich, wie performant die Seite beim Nutzer ist. Ladezeiten zu optimieren ist hauptsächlich mit Programmierung und Anpassung von Infrastruktur verbunden. Da sich die dabei eingesetzten Technologien schnell weiterentwickeln, ist es nicht gerade trivial, immer auf dem neuesten Stand zu bleiben.
Mit einem übersichtlichen Design allein ist es also nicht getan, auch der technische Unterbau muss stimmen, sonst kommt es leicht zu einer „Überfrachtung“: Jedes noch so sinnvolle Design-Element und natürlich der Content selbst zahlen auf die Lade- und Renderzeit ein, die der Nutzer in Kauf nehmen muss. Und Menschen wünschen sich schnelle Websites. (Wer versucht nicht, sich im Supermarkt an der Kasse mit der kürzesten Schlange anzustellen?)
Tipp: Einfach mal mit Tools wie Google Page Speed Insights die eigene Website prüfen und die technischen Handlungsempfehlungen zur Performance-Optimierung durchlesen. Das sind vor allem Aufgaben für Entwickler: HTTP/2, Bildkompression, Code-Minifying und etliches mehr.
Wer nur geringe Ressourcen für Entwickler zur Verfügung hat, der kann auf Cloud-Services zurückgreifen, die on-the-fly und kontinuierlich viele der Optimierungen implementieren.
Web-Security ist ein Must-have
Sicherheit spielt bei SEO eine große Rolle: Unsichere Inhalte werden von Google schlechter indexiert, und mit Malware infizierte Websites fliegen gleich ganz aus dem Index. Zurecht!
Um das zu vermeiden, schützt man Websites am besten mit einer Web-Application-Firewall (WAF) und einem SSL-Zertifikat. Läuft die Seite verschlüsselt über HTTPS statt über HTTP, wird sie zudem den Nutzern im Browser als „vertrauenswürdig“ angezeigt. Andersherum kennzeichnet etwa Google Chrome alle nicht-verschlüsselten Seiten aktiv als „nicht sicher“ – das kostet schnell wertvollen Traffic.
Mit Services wie Let’s Encrypt lässt sich die Sicherheit einer Website recht einfach und kostenfrei aufrüsten. Dies lohnt sich auch in Hinblick auf die Datenschutzbestimmungen der DSGVO: Die Übertragung personenbezogener Daten muss seit Mai 2018 verschlüsselt erfolgen. Und solche Daten fallen bereits bei einem simplen Kontaktformular oder Kommentarfeld an.
Wer ein SSL-Zertifikat implementiert sollte auch auf Drittanbieter-Content auf der Website achten. Hat man etwa den Event-Kalender einer externen Seite integrierte, die nicht SSL-verschlüsselt ist, wirft der Browser des Nutzers Fehlermeldungen aus: „Mixed Content“ aus sicherem und unsicherem Inhalt sind ein Kardinalfehler bei technischer SEO.
Mobile First – eigentlich ein No-brainer
Eine gute mobile Website ist schon länger kein nettes „nice-to-have“ mehr. Googles Mobile-First-Index schafft Fakten und setzt einen großen Wunsch der steigenden Zahl an Nutzern um, die vor allem mit dem Smartphone im Web sind. Wer dieser riesigen Zielgruppe keine leicht zugängliche Website anbietet, sinkt im Ranking – und verliert Traffic.
Es gibt viele Wege, eine Website zu mobilisieren: Dedizierte m.-Seiten waren lange Standard. Der Trend sind aber Responsive Websites, die alle Bildschirmgrößen bedienen können.
Tipp: Google und andere bieten Tools an, die die „mobile-friendliness“ von Websites testen und Tipps zur Verbesserung geben.
Longtail-Search ist menschlich
Eine klassische Suchanfrage lautet bislang: „Ladezeit Website optimieren“. Immer häufiger klingt dieselbe Anfrage aber so: „Okay, Google, wie kann ich meine Website schneller machen?“.
Solche Longtail-Suchanfragen nehmen mit zunehmender Verbreitung von Voice-Assistenten wie Alexa, Siri oder dem Google Assistant immer weiter zu. Schon Ende 2017 war jede fünfte Suchanfrage an Google eine Voice-Search. Die Nutzer sind es zunehmend gewohnt, mit ihrem Gerät zu sprechen.
Um diese Nutzer zu erreichen, reicht die klassische Optimierung für Suchmaschinen-Bots nicht mehr aus. Man muss die Intention der Suchenden früh erkennen, und sie schnell mit viel relevantem Content in der richtigen Tonalität bedienen. Und für einen Menschen ist das zumeist etwas ganz anderes als für den Bot.
Fazit: SEO ist für Menschen da, nicht für Maschinen
Websites sind für den Menschen da, nicht für den Bot. Und das gilt auch für SEO. Eine Umbenennung in „Search EXPERIENCE Optimization“ wäre durchaus sinnvoll, denn darum geht es: Ein positives Gesamterlebnis. Und dafür sind neben dem eigentlichen Content eben auch Faktoren wie Ladezeiten und Nutzer-Sicherheit zunehmend wichtig.
Die letzten Updates des Algorithmus hinter Googles Ranking folgen dieser Sichtweise. Deshalb sollten Website-Anbieter die neuen Richtlinien nicht als zusätzliche, aufwändige Arbeit sehen. Vielmehr sind sie hilfreiche Tipps, die dabei helfen, dauerhaft Erfolg im Web zu haben.
Das was die Autorin hier schreibt ist für mich wild zusammengewürfelt und inhaltlich nicht, dass was ich vom Titel erwartet hätte. Am Ende geht es doch um SSL und Performance. Mindestens zwei Punkte die den Menschen genauso jucken wie den Bot bei Google. Hm …
Vielleicht sollten man sich, bevor man solch ein Thema aufgreift mal darüber informieren, was SEO im Kern beinhaltet: Durch Anwendung einer Vielzahl an Optimierungsmassnahmen eine Online-Präsenz zu einem oder mehreren Schlüsselwörtern auf vorderste Positionen in einer Suchmaschine zu bringen. Erst dann und eben auch erst dann, hat man Besucher auf seiner Webseite. Anhand deren Verhalten wie Verweildauer, CTR, Bounce etc. kann man die Webseite User-orientiert (UX) optimieren. SEO ist ein andauernder und langwierigen niemals endender Anpassungsprozess und nich einfach SSL implementieren, Content produzieren, Responsive Design wählen, ein bisschen Menüstrukturen anpassen blablabla……. Fazit: werden den BOT „vergisst“ sollte sich gar nicht erst ins Web begeben. Webseiten müssen sowohl dem BOT als auch dem User gefallen. Und noch was: Wer mittels Googles Page Speed Insights seine Webseite optimiert, hat von Speed Optimierung keine Ahnung….