Google verrät: Es gibt keine Top-Rankingfaktoren
Content, Backlinks, Pagespeed oder doch User-Signals? In der SEO-Szene hört man ständig andere Aussagen darüber, was denn nun die wichtigsten Rankingfaktoren für Google sind. Googles Web-Trend-Analyst Gary Illyes erklärt nun auf Twitter: Die Top-Rankingfaktoren ändern sich je nach Suchanfrage.
I didn’t give a top 3. I actually said that it very much depends on the query and the results which signals count more
— Gary „鯨理“ Illyes (@methode) 18. September 2017
Nachdem eine Userin via Twitter die Frage an die beiden Web-Trend-Analysten John Müller und Gary Illves richtete, ob Links zu den Top-drei-Rankingfaktoren gehören, erklärte Müller zunächst, dass es keine Top drei gäbe. Illyes ergänze später, dass vor allem die Suchanfrage darüber entscheidet, welche Rankingfaktoren das größte Gewicht haben.
Googles Algorithmus setzt auf Relevanz
Laut Müller soll der Algorithmus den Nutzern die Ergebnisse zeigen, die für ihre jeweilige Suche die größte Relevanz haben. Auf bestimmte Rankingfaktoren zu optimieren sei zu kurz gedacht.
The algorithms try to show relevant & awesome results to users‘ queries. Everything else varies. Opt’ing for factors is short-term thinking.
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 18. September 2017
Im Verlauf der Twitter-Diskussion erklärt Gary Illyes weiter, dass Links, entgegen der verbreiteten Meinung in der SEO-Szene, in vielen Fällen gar keine Rolle spielen. Viele der Top-Suchergebnisse haben keinerlei Backlinks, was vor allem damit zusammenhängt, dass viele Suchanfragen (vor allem im Long-Tail-Bereich), so noch nie gestellt wurden. Einige Suchergebnisse sind so neu oder spezifisch, dass andere Seiten noch nicht auf sie verlinkt haben. Wenn sie jedoch relevant für die Suchanfrage eines Users sind, haben sie auch ohne Links gute Rankingchancen.
Was bedeutet das für Marketer?
Über die abnehmende, nicht mehr vorhandene oder zu früh für tot erklärte Bedeutung von Backlinks wird in der SEO-Szene nicht erst seit gestern diskutiert. Die Statements von John Müller und Gary Illyes bringen jetzt endlich Licht ins Dunkel.
Für die zukünftige (SEO)-Arbeit von Seitenbetreiber bedeutet das: Optimiert endlich für eure Nutzer, nicht für die Maschine. Vor allem bedingt durch die immer populärer werdende Voice-Search werden Suchanfragen länger und spezifischer. Nur, wer dafür relevante Inhalte bieten kann, wird sich langfristig im Google-Ranking behaupten können.
Wäre schön, wenn Google auch das könnte, was es gern wollen würde. Eigene Tests bei uns zeigen, dass es immer noch eine Diskrepanz zwischen User und SEO gibt. Viele große Seiten im E-Commerce verstecken lange Seotexte in Sidebars oder irgendwo anders auf der Seite, die nie irgend ein User liest. Warum tun sie das, wenn nur der User zählt? Weil sie sonst abstürzen würden, so wie wir es bei dem Versuch sind für den User zu optimieren.
Auf E-Commerce/Transaktions Seiten wollen User keine Texte lesen, sie wollen kaufen. Trotzdem bevorzugt Google Seiten mit viel Text.
Hier würde ich vllt. noch 2-3 Google Updates abwarten. In manchen Branchen sind lange Seotexte bereits kein positiver Faktor mehr, da Google verstanden hat, dass z.B. der Zinsrechner keine 800 Wörter braucht um zu ranken.
Beim Ecommerce klappen diese Texte (leider) noch ganz gut. Aber hier kann man beide glücklich machen: Ratgebertexte mit interaktiven Elementen erstellen. Aber klar: Wer soll das bezahlen?
Was mich interessieren würde ist, ob AMP-Seiten im Vergleich zu normalen responsiven Seiten platzierungsmäßig Vorteile bringen, da sie ja den Nachteil bringen, dass der Besucher gar nicht mehr auf die jeweilige Seite beim Betreiber kommt.
Siehe
https://innovative-trends.de/2017/09/09/amp-accelerated-mobile-pages-und-googles-umsetzung-fluch-oder-segen/
Ja, haben sie. Größter, aktueller Vorteil ist, dass die Ergebnisse als Featured Snippet vor den organischen erscheinen.
Und Google weiß schon bescheid, zu welcher URL die AMP Seite gehört. Google cached sie ja lediglich.
Hallo dieses Thema ist schwierig zu beantworten. Ich habe jetzt zwei mal AMP auf meiner Seite installiert und nach ein bis zwei Wochen wieder deinstalliert. Ich hatte nicht den Anschein, dass meine Seite bevorzugt behandelt wurde. Des weiteren gehen viele Design-Details verloren.
Ich denke auch, dass sich in den nächsten Monaten und Jahren noch einiges verändern wird. Und ja, zu lange Texte sind nicht überall wünschenswert.
Google hatte schon immer eine gute Geheimhaltungspolitik bezüglich Suchmaschinenoptimierung und welche Rankingfaktoren mitspielen lässt sich nur durch eigene Analysen herausfinden. Ob teure Agenturen den gewünschten Effekt bringen, mag ich zu bezweifeln. Auch kleinere Blogs, wie meinen Beauty- und Gesundheitsblog können eine gute Position mit hochwertigen Content erreichen.
Jo, erstklassiges nofollow Linkbuilding, was du da betreibst, ,,Dr.“ aus Dubai.
Gerade die Aussage zu den Backlinks kann ich vielen Bereichen absolut bestätigen. Ob das am Ende für alle Themen zutrifft, glaube/weiß ich nicht. Vor allem dann, wenn es um stark umkämpfte Bereiche geht, bei denen bereits viele Website-Betreiber schon „alles richtig“ gemacht haben und eigentlich die komplette Top bei Google auf Platz 1 gehört.
Bei KMUs in der Region, deren Websites ich betreue bzw. beobachte, geht es zum Teil praktisch ohne externe Verweise. Selbst zu Suchanfragen wie „Branche Ort“, bei denen meist doch mehrere Anbieter miteinander konkurrieren, lassen sich Top-Ergebnisse damit erreichen, dass man die Seite inhaltlich genau zu diesen Anfragen optimiert. „Optimiert“ heißt hier, dass es thematisch überhaupt erst einmal um das Thema geht und die Nutzer auf ihre Suchanfrage auch eine passende Antwort bekommen. Ein „Herzlich willkommen auf meiner Homepage“ ist vielfach noch immer anzutreffen, obwohl es wichtiger wäre das Nutzer-Problem aufzugreifen und entsprechende Hilfen anzubieten.
Ich habe mal eine Nischenseite total optimiert, hatte aber keinerlei Backlinks und hatte nach ein paar Monaten trotzdem ein Pagerank von 3 und jede Menge Traffic. Keiner wollte es glauben.
Wenn man den Verlauf der Tweets weiterverfolgt, dann sieht man, dass Gary Illyes den Beweis seiner These noch erbringen muss. Die Herausforderung steht…
Meiner Meinung nach ist Google gerade in letzter Zeit immer schlechter darin geworden den Nutzersignale und Bedürfnisse zu interpretieren. Eine wirkliche Chance haben nur die, die sich viel Aufwand und Contentaufbereitung und Erstellung leisten können und in der Lage sind Reverseingeneering zum Algorythmus/Neuronalen Netzwerk/Deep learning zu betreiben (SEO). Es fällt teilweise so extrem auf, dass ich häufig direkt auf die 3. oder 4. Suchergebnisseite springe, da die Ergebnisse dort weniger Kommerziell und dadurch de facto besser für den Nutzer sind. Bei Medizinischen Themen z.B. erstmal 20 Seiten in den Top Rankings Medikamente verkaufen und hunderte Stunden Content-und Textgenerierung zur verfügung haben und in der Lage sind die Top Rankenden zu analysieren ud nachzubaun in „ein bisschen besser“. Während die eine wichtige Seite die sagt: Hast du diese Woche schonmal Obst gegessen? Geh an die Sonne, treibe Bewegung, Hast du die Nackenschmerzen vllt weil du das Handy zu viel benutzt? Erst auf Platz x +20 kommt. Man merkt das Neuronale Netzwerke eingesetzt werden. Diese tendieren allerdings immer zum Mainstream. Und der Mainstream weicht durch seine Natur aus Kompromissen zu bestehen so gut wie immer vom Ideal ab und wird durch das Reverse konstruierte Nutzerverhalten auch noch verstärkt. Da finde ich die Ansätze konkrete Ideallösungen zu kreieren wie bei „Kinofilme 2017 Scifi“ wesentlich besser. Natürlich ist es gerade wichtig, bei bisher unbekannden Suchanfragen gute Ergebnisse bereitzustellen, die man durchaus anhand von vermeindlich positiven Nutzersignalen zu orientieren sollte. Aber die Signale verstärken sich durch Reverse Ingeneering selbst und da sind wir wieder beim Mainstream. (z.B. Google geht davon aus der Nutzer ist lange auf der Seite = gutes Nurzersignal -> Die Seite Rankt gut.. -> andere bauen Seiten mit längeren Texten -> diese Ranken noch besser -> Nutzer wählt aus Zeitmangel eines der ersten Ergebnisse aus (liest aus Gewohneit bis zum Ende) -> Google denkt noch längere Texte findet der Nutzer noch besser etc etc etc.) Egal ob ab einem bestimmmten Punkt der Nutzen befriedigt ist, die Signale müssen noch stärker sein. Der Nutzer muss länger auf der Seite sein, muss ein noch breitereres Spektrum an Assoziierten Wörtern konsumieren, muss noch öfter irgendwo unher klicken und irren und bei der Stange gehalten werden, um herauszufinden wie viel Geld er denn nun bei 3% Zinsen nach 20 Jahren hat. Am besten 3000 Worte Text, eine Assoziierte Wortvielfalt wie ein Lexikon entgegenwerfen und den Nutzer ja 5 mal auf Unterseiten verlaufen lassen. Dahin entwickelt sich Google und das ist was Google dem Markt abverlangt gerade). (Habe ich das Gefühl) Das ganze Konzept ist natürlich viel Dynamischer als manuelle Algorythmen und dadurch mit Sicherheit immer viel dichter an der Zeit, aber die Präferenz nach Mainstream hat halt seine Nebenwirkungen. Deep Learning bei der Bewertung der Wichtigkeit von Nutzersignalen einzusetzen und dabei zu sagen achtet mehr auf die Nutzer und weniger auf unsere Algorythmen ist wie zu sagen, der erste der bei der Ziellinie ist hat gewonnen,.. Aber bitte ja nicht rennen.
Bin gerade über die Google Suche auf diesen „älteren“ Artikel gestoßen und Frage mich, wo die ach so bedeutsame Themenrelevanz hin ist. Aktuell ranken nur noch One-Pager mit einem Artikel. Schaut man sich das Linkprofil an, sieht man, dass einfach nur zahllose Domains umgeleitet wurden. Google hat sich in den letzten Monaten extrem mit ihrer KI verzettelt und nun sind die Suchergebnisse einfach nur noch Mist. Ich hoffe, dass die das Problem schnell in den Griff bekommen, denn aktuell ist es unmöglich zuverlässige SEO Arbeiten durchzuführen
Meinen Erfahrungen nach sind Backlinks trotzdem das A und O, natürlich müssen die Keywords optimiert sein und bei einer bestimmten Nische mitspielen. Jedoch ist eine Webseite ohne eine Backlinkaufweisung nicht in den ersten Seiten aufzufinden.
Hi,
danke für die Faktoren. Ich betreibe einen kleinen Blog zum Thema Jagd und versuche schon etwas länger ihn gut zu ranken.
Ich glaube, dass ich vor allem noch an den Inhalten arbeiten muss.
Viele Grüße,
Jagdjünger
Es ist natürlich immer wieder schwer, jedoch kann ich aus eigener Erfahrung bestätigen das die Backlinks einen sehr sehr hohen Faktor einnehmen. Natürlich spielen andere Rankingfaktoren auch eine kleine Rolle, jedoch sind Backlinks wirklich sehr sehr wichtig.