Studie zu Google-Rankingfaktoren: Diese sind wirklich relevant
Das Unternehmen Backlinko des SEO-Experten Brian Dean hat im Rahmen einer Studie 11,8 Millionen Google-Suchergebnisse analysiert. Das Ziel der Studie war es, herauszufinden, welche Faktoren auf welche Art und Weise zu den Google-Rankings der analysierten Seiten in Beziehung stehen. In Kooperation mit Ahrefs ist eine Liste mit zwölf Erkenntnissen herausgekommen, die einige SEO-Optimierungsansätze liefert.
Backlink-Profil auf Domain-Ebene
Die Linkautorität der analysierten Websites soll mit besseren Google-Rankings korreliert haben. Je quantitativer und qualitativer die Backlinks waren, die auf eine Domain verlinkt haben, desto höher fielen alle Rankings der gesamten Domain aus. In der Studie wurde die Link-Authority mithilfe des Ahrefs-Domain-Ratings ermittelt.
Anzahl der Backlinks
Websites mit vielen Backlinks sollen höhere Rankings eingenommen haben. Im Durchschnitt besaßen die Seiten auf Googles Poleposition 3,8 Mal mehr Backlinks als die in den Rankings nachfolgenden Seiten auf den Positionen zwei bis zehn.
Holistischer Content
Websites mit umfassenden und in die Tiefe gehenden Inhalten sollen höhere Rankings eingenommen haben als Seiten, die Themen nur angerissen haben. In der Studie wurde zur Ermittlung der Contenttiefe und -qualität der Content Grade des SEO-Optimization-Tools Clearscope herangezogen.
Ladezeit der Seiten
Überraschenderweise ist die Ladezeit einer Website laut der Studie kein wichtiger Rankingfaktor. Es wurde keine Korrelation zwischen der Geschwindigkeit und den Rankings deutlich, sodass auch Websites mit langen Ladezeiten hohe Rankings eingenommen haben sollen.
Diversifizierte Backlinks
Die Anzahl an Backlinks von möglichst vielen verschiedenen Websites soll für die Rankings in Google relevant sein. Viele Backlinks von fremden Seiten wirken sich also positiv auf die Rankings aus.
Keywords und Title-Tags
Bei der überwiegenden Mehrheit der analysierten Suchergebnisse sollen die angegebenen Title-Tags mit den Keywords übereingestimmt haben, für die die Websites in den Suchergebnissen aufgetaucht sind. Für die Höhe der Rankings soll die Nutzung von Keywords in Title-Tags jedoch keine Rolle gespielt haben.
Autorität einzelner Unterseiten
Die Autorität einzelner URL einer Website korreliert schwach mit den Rankings. Ermittelt wurde dies in der Studie über Ahrefs’ URL-Rating. Das zeigt die Stärke des Linkprofils einer URL auf einer 100-Punkte-Skala. Je größer die Zahl, desto stärker ist das Linkprofil. Das Rating berücksichtigt sowohl interne als auch externe Links.
Länge der Inhalte
Websites auf der ersten Position der organischen Google-Suchergebnisse sollen im Schnitt eine Länge von 1.447 Wörtern gehabt haben. Über die ersten zehn Suchergebnisse soll die Wortanzahl darüber hinaus gleichmäßig verteilt gewesen sein.
Datenmenge der HTML-Codes
Die Datenmenge des HTML-Codes soll nicht für die Google-Suchergebnisse relevant sein, sodass auch Websites mit datenintensiven HTML-Codes weit oben ranken können.
Länge der URL
Zwischen der URL-Länge und den Rankings besteht nur eine geringe Korrelation. Kurze URL bringen laut der Backlinko-Studie nur einen leichten Ranking-Vorteil gegenüber längeren URL mit sich.
Strukturierte Daten
Auch wenn Websites mit Schema-Markup dem Google-Bot helfen, in den Google-Suchergebnissen meist präsenter und auffälliger sind und folglich häufiger geklickt werden: Strukturierte Daten sollen für hohe Google-Rankings nicht relevant sein.
Verweildauer
Die Verweildauer soll sich auf die Höhe der Rankings auswirken. Demnach besäßen Websites, deren Besucher lange verweilen, tendenziell höhere Rankings. Eine um drei Sekunden längere Verweildauer soll in der Studie mit höheren Rankings korreliert haben.
Optimierungen vor der Umsetzung genau prüfen
Die Ergebnisse der Studie liefern Websitebetreibern zwar nützliche Optimierungsansätze, sollten aber dennoch mit Vorsicht betrachtet werden. Die Ladezeiten beispielsweise sollen laut der Studie in keinem Bezug zu hohen Rankings stehen. Dennoch würden lange Ladezeiten höchstwahrscheinlich zu hohen Absprungraten und geringer Verweildauer führen – was laut der Studie wiederum für hohe Rankings relevant sein soll.
Das könnte dich auch interessieren:
- SEO: Google startet neue Videoreihe für Webmaster
- Studie: Halte dich an diese Vorgaben und deine Blogartikel gehen durch die Decke
- 17 kostenlose Google-Tools für euer Online-Marketing
Tim, Du hast einfach Recht. Danke Dir.
Es gibt immer wieder derartige Posts, die völlig daneben sind und unwissende User dazu verleitet plötzlich den einen oder anderen Fakt auszulassen. Er wundert sich dann aber warum er in den SERPs fällt.
Ich muss immer lachen, wenn es Posts wie „6 Schritte um besser zu ranken“ sehe :-D
Wenn es so einfach wäre, warum machen das nicht alle?
Sehr interessante Studie – die allerdings, wie @Tim Biernoth richtig sagt, einige Dinge unbeachtet lässt.
Insbesondere dem Schlusssatz ‚Korrelation ist nicht gleich Kausalität‘ kann ich absolut zustimmen, dies wird sehr außer Acht gelassen.
Natürlich gehört mehr dazu, eine Seite auf der Pole-Position der SERPs zu platzieren, als eine Tonne Backlinks (Qualität) zur Seite zu setzen und den Content auf exakt 1447 Wörter festzusetzen.
Dennoch sollte man nicht vergessen, dass diese Studie keine Anleitung für SEO ist, sondern lediglich Ergebnisse aus der durchgeführten Marktforschung in absoluten, für diese Studie repräsentativen Findungen festhält.
Sehe ich auch so wie @Deus Marketing.
Es soll ja keine Anleitung sein. Dennoch würden diese Infos schon vielen Website-Betreibern weiterhelfen. In einem umkämpften Markt wird es dann allerdings schon schnell dünn.