Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Google verrät: Es gibt keine Top-Rankingfaktoren

    Google verrät: Es gibt keine Top-Rankingfaktoren

Google bestätigt: Top-Rankingfaktoren ändern sich je nach Suchanfrage. (Foto: Shutterstock / Benny Marty)

Immer wieder spekulieren SEOs darüber, was die Top-Rankingfaktoren bei Google sind. Gary Illyes klärt jetzt auf: Das hängt ganz von der jeweiligen Suchanfrage ab.

Content, Backlinks, Pagespeed oder doch User-Signals? In der SEO-Szene hört man ständig andere Aussagen darüber, was denn nun die wichtigsten Rankingfaktoren für Google sind. Googles Web-Trend-Analyst Gary Illyes erklärt nun auf Twitter: Die Top-Rankingfaktoren ändern sich je nach Suchanfrage.

Nachdem eine Userin via Twitter die Frage an die beiden Web-Trend-Analysten John Müller und Gary Illves richtete, ob Links zu den Top-drei-Rankingfaktoren gehören, erklärte Müller zunächst, dass es keine Top drei gäbe. Illyes ergänze später, dass vor allem die Suchanfrage darüber entscheidet, welche Rankingfaktoren das größte Gewicht haben.

Googles Algorithmus setzt auf Relevanz

Laut Müller soll der Algorithmus den Nutzern die Ergebnisse zeigen, die für ihre jeweilige Suche die größte Relevanz haben. Auf bestimmte Rankingfaktoren zu optimieren sei zu kurz gedacht.

Im Verlauf der Twitter-Diskussion erklärt Gary Illyes weiter, dass Links, entgegen der verbreiteten Meinung in der SEO-Szene, in vielen Fällen gar keine Rolle spielen. Viele der Top-Suchergebnisse haben keinerlei Backlinks, was vor allem damit zusammenhängt, dass viele Suchanfragen (vor allem im Long-Tail-Bereich), so noch nie gestellt wurden. Einige Suchergebnisse sind so neu oder spezifisch, dass andere Seiten noch nicht auf sie verlinkt haben. Wenn sie jedoch relevant für die Suchanfrage eines Users sind, haben sie auch ohne Links gute Rankingchancen.

Anzeige

Was bedeutet das für Marketer?

Über die abnehmende, nicht mehr vorhandene oder zu früh für tot erklärte Bedeutung von Backlinks wird in der SEO-Szene nicht erst seit gestern diskutiert. Die Statements von John Müller und Gary Illyes bringen jetzt endlich Licht ins Dunkel.

Für die zukünftige (SEO)-Arbeit von Seitenbetreiber bedeutet das: Optimiert endlich für eure Nutzer, nicht für die Maschine. Vor allem bedingt durch die immer populärer werdende Voice-Search werden Suchanfragen länger und spezifischer. Nur, wer dafür relevante Inhalte bieten kann, wird sich langfristig im Google-Ranking behaupten können.

Finde einen Job, den du liebst

9 Reaktionen
Eric Mandel
Eric Mandel

Meiner Meinung nach ist Google gerade in letzter Zeit immer schlechter darin geworden den Nutzersignale und Bedürfnisse zu interpretieren. Eine wirkliche Chance haben nur die, die sich viel Aufwand und Contentaufbereitung und Erstellung leisten können und in der Lage sind Reverseingeneering zum Algorythmus/Neuronalen Netzwerk/Deep learning zu betreiben (SEO). Es fällt teilweise so extrem auf, dass ich häufig direkt auf die 3. oder 4. Suchergebnisseite springe, da die Ergebnisse dort weniger Kommerziell und dadurch de facto besser für den Nutzer sind. Bei Medizinischen Themen z.B. erstmal 20 Seiten in den Top Rankings Medikamente verkaufen und hunderte Stunden Content-und Textgenerierung zur verfügung haben und in der Lage sind die Top Rankenden zu analysieren ud nachzubaun in "ein bisschen besser". Während die eine wichtige Seite die sagt: Hast du diese Woche schonmal Obst gegessen? Geh an die Sonne, treibe Bewegung, Hast du die Nackenschmerzen vllt weil du das Handy zu viel benutzt? Erst auf Platz x +20 kommt. Man merkt das Neuronale Netzwerke eingesetzt werden. Diese tendieren allerdings immer zum Mainstream. Und der Mainstream weicht durch seine Natur aus Kompromissen zu bestehen so gut wie immer vom Ideal ab und wird durch das Reverse konstruierte Nutzerverhalten auch noch verstärkt. Da finde ich die Ansätze konkrete Ideallösungen zu kreieren wie bei "Kinofilme 2017 Scifi" wesentlich besser. Natürlich ist es gerade wichtig, bei bisher unbekannden Suchanfragen gute Ergebnisse bereitzustellen, die man durchaus anhand von vermeindlich positiven Nutzersignalen zu orientieren sollte. Aber die Signale verstärken sich durch Reverse Ingeneering selbst und da sind wir wieder beim Mainstream. (z.B. Google geht davon aus der Nutzer ist lange auf der Seite = gutes Nurzersignal -> Die Seite Rankt gut.. -> andere bauen Seiten mit längeren Texten -> diese Ranken noch besser -> Nutzer wählt aus Zeitmangel eines der ersten Ergebnisse aus (liest aus Gewohneit bis zum Ende) -> Google denkt noch längere Texte findet der Nutzer noch besser etc etc etc.) Egal ob ab einem bestimmmten Punkt der Nutzen befriedigt ist, die Signale müssen noch stärker sein. Der Nutzer muss länger auf der Seite sein, muss ein noch breitereres Spektrum an Assoziierten Wörtern konsumieren, muss noch öfter irgendwo unher klicken und irren und bei der Stange gehalten werden, um herauszufinden wie viel Geld er denn nun bei 3% Zinsen nach 20 Jahren hat. Am besten 3000 Worte Text, eine Assoziierte Wortvielfalt wie ein Lexikon entgegenwerfen und den Nutzer ja 5 mal auf Unterseiten verlaufen lassen. Dahin entwickelt sich Google und das ist was Google dem Markt abverlangt gerade). (Habe ich das Gefühl) Das ganze Konzept ist natürlich viel Dynamischer als manuelle Algorythmen und dadurch mit Sicherheit immer viel dichter an der Zeit, aber die Präferenz nach Mainstream hat halt seine Nebenwirkungen. Deep Learning bei der Bewertung der Wichtigkeit von Nutzersignalen einzusetzen und dabei zu sagen achtet mehr auf die Nutzer und weniger auf unsere Algorythmen ist wie zu sagen, der erste der bei der Ziellinie ist hat gewonnen,.. Aber bitte ja nicht rennen.

Antworten
@1stseo

Wenn man den Verlauf der Tweets weiterverfolgt, dann sieht man, dass Gary Illyes den Beweis seiner These noch erbringen muss. Die Herausforderung steht...

Antworten
Ralf

Ich habe mal eine Nischenseite total optimiert, hatte aber keinerlei Backlinks und hatte nach ein paar Monaten trotzdem ein Pagerank von 3 und jede Menge Traffic. Keiner wollte es glauben.

Antworten
Daniel Weihmann

Gerade die Aussage zu den Backlinks kann ich vielen Bereichen absolut bestätigen. Ob das am Ende für alle Themen zutrifft, glaube/weiß ich nicht. Vor allem dann, wenn es um stark umkämpfte Bereiche geht, bei denen bereits viele Website-Betreiber schon "alles richtig" gemacht haben und eigentlich die komplette Top bei Google auf Platz 1 gehört.

Bei KMUs in der Region, deren Websites ich betreue bzw. beobachte, geht es zum Teil praktisch ohne externe Verweise. Selbst zu Suchanfragen wie "Branche Ort", bei denen meist doch mehrere Anbieter miteinander konkurrieren, lassen sich Top-Ergebnisse damit erreichen, dass man die Seite inhaltlich genau zu diesen Anfragen optimiert. "Optimiert" heißt hier, dass es thematisch überhaupt erst einmal um das Thema geht und die Nutzer auf ihre Suchanfrage auch eine passende Antwort bekommen. Ein "Herzlich willkommen auf meiner Homepage" ist vielfach noch immer anzutreffen, obwohl es wichtiger wäre das Nutzer-Problem aufzugreifen und entsprechende Hilfen anzubieten.

Antworten
O. Hoess

Was mich interessieren würde ist, ob AMP-Seiten im Vergleich zu normalen responsiven Seiten platzierungsmäßig Vorteile bringen, da sie ja den Nachteil bringen, dass der Besucher gar nicht mehr auf die jeweilige Seite beim Betreiber kommt.

Siehe
https://innovative-trends.de/2017/09/09/amp-accelerated-mobile-pages-und-googles-umsetzung-fluch-oder-segen/

Antworten
Ruslan Julbarissow

Ja, haben sie. Größter, aktueller Vorteil ist, dass die Ergebnisse als Featured Snippet vor den organischen erscheinen.

Und Google weiß schon bescheid, zu welcher URL die AMP Seite gehört. Google cached sie ja lediglich.

Antworten
Basti

Hallo dieses Thema ist schwierig zu beantworten. Ich habe jetzt zwei mal AMP auf meiner Seite installiert und nach ein bis zwei Wochen wieder deinstalliert. Ich hatte nicht den Anschein, dass meine Seite bevorzugt behandelt wurde. Des weiteren gehen viele Design-Details verloren.
Ich denke auch, dass sich in den nächsten Monaten und Jahren noch einiges verändern wird. Und ja, zu lange Texte sind nicht überall wünschenswert.

Phillip
Phillip

Wäre schön, wenn Google auch das könnte, was es gern wollen würde. Eigene Tests bei uns zeigen, dass es immer noch eine Diskrepanz zwischen User und SEO gibt. Viele große Seiten im E-Commerce verstecken lange Seotexte in Sidebars oder irgendwo anders auf der Seite, die nie irgend ein User liest. Warum tun sie das, wenn nur der User zählt? Weil sie sonst abstürzen würden, so wie wir es bei dem Versuch sind für den User zu optimieren.

Auf E-Commerce/Transaktions Seiten wollen User keine Texte lesen, sie wollen kaufen. Trotzdem bevorzugt Google Seiten mit viel Text.

Antworten
Ruslan Julbarissow

Hier würde ich vllt. noch 2-3 Google Updates abwarten. In manchen Branchen sind lange Seotexte bereits kein positiver Faktor mehr, da Google verstanden hat, dass z.B. der Zinsrechner keine 800 Wörter braucht um zu ranken.

Beim Ecommerce klappen diese Texte (leider) noch ganz gut. Aber hier kann man beide glücklich machen: Ratgebertexte mit interaktiven Elementen erstellen. Aber klar: Wer soll das bezahlen?

Antworten
Bitte melde dich an!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Hinweis

Du hast gerade auf einen Provisions-Link geklickt und wirst in Sekunden weitergeleitet.

Bei Bestellung auf der Zielseite erhalten wir eine kleine Provision – dir entstehen keine Mehrkosten.


Weiter zum Angebot