Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Interview

Ex-Googler Jonas Weber mit Insights zum Penguin 4.0 Update

    Ex-Googler Jonas Weber mit Insights zum Penguin 4.0 Update

(Foto: Asif Islam / Shutterstock.com)

Ein ehemaliger Google-Mitarbeiter verrät, wie Penguin 4.0 funktioniert und gibt Tipps zum Thema SEO: Welche Maßnahmen lohnen sich wirklich?

Das erste Penguin-Update seit über zwei Jahren versetzte die SEO-Szene in Aufruhr. Viele Betroffene atmeten auf, andere wiederum zitterten ob der Bestrafung durch den Suchmaschinengiganten. Insbesondere das Beispiel von Home24 sorgte für hitzige Diskussionen. Wir sprachen mit dem SEO-Experten Jonas Weber und baten ihn um seine Einschätzung der Situation. Im Interview verrät der ehemalige Google-Mitarbeiter, wie der Pinguin im Detail funktioniert und was er von dem Fall Home24 hält. Außerdem gibt er Tipps, wie du bei einer Bestrafung am besten vorgehst, und welche SEO-Maßnahmen sich heutzutage am meisten lohnen.

Interview mit Jonas Weber, Ex-Googler und selbstständiger SEO-Berater

OnlineMarketing.de: Hi Jonas, kannst du dich bitte kurz vorstellen?

jonas-weber
(Foto: Privat)

Jonas Weber: Mein Name ist Jonas Weber, ich bin selbstständiger SEO Berater und habe in den letzten Monaten auch einige Google Penguin-Update-Opfer beraten.

Davor habe ich unter anderem bei Google im Search Quality Team in Dublin gearbeitet und bin nachwievor offizieller Google Developers Expert. Deswegen sind mir die Filter- und  Penalty-Prozesse bei Google gut bekannt. Die teils heftigen Diskussionen in den letzten Tagen haben mich etwas verwundert bzw. verärgert.

Wie so oft wird versucht, Google für das eigene falsche Vorgehen den schwarzen Peter zuzuschieben. Dabei wurde der Richtlinienverstoß bewusst in Kauf genommen, über die Konsequenzen haben sich viele Betroffenen jetzt sichtbar beschwert. Für mich ist das unverständlich. Meine Tochter bekommt auch kein Eis mehr, wenn sie sich schlecht benommen hat. Und mit der Ausnutzung einer potentiellen Monopolstellung von Google hat das hier zu keinem Zeitpunkt zu tun.

OnlineMarketing.de: Welche Intention Googles steht denn hinter dem Penguin Update?

Weber: Es ist kein Geheimnis, dass ein wesentlicher Faktor für gute SEO Rankings ein starkes Backlinkprofil ist. Aus diesem Grund hat sich in der Vergangenheit ein großer Marktplatz für den Backlinkkauf entwickelt. Agenturen haben den Kunden eine monatliche Anzahl von neuen Backlinks versprochen, der Kunde pro Backlink bezahlt, teilweise sehr hohe Summen. Das hat sich zumindest vor Penguin für die meisten Beteiligten gelohnt, weil somit die Rankings gesteigert werden konnten.

Penguin ist ein automatisierter Filter, um diese minderwertigen, nicht Google konformen Verlinkungen zu entwerten. Ist der Anteil von zu viel Low Quality-Links zu hoch, im Vergleich zu den guten Backlinks, dann hat der Filter die komplette Website “erwischt”. Die Links werden entwertet, ja die Rankings der Website sogar künstlich herabgestuft, weil die Website nicht mehr vertrauenswürdig ist. Das ist wie auf anderen Plattformen: Raten viele Personen in Form von Bewertungen auf Tripadvisor von einem Restaurant ab, werden viele Interessenten dort nicht mehr hingehen. Es verliert außerdem das Top-Ranking auf Tripadvisor. Gleiches gilt für Ärzte auf Jameda, Produkte auf Amazon etc.

Dieser quantitative Linkaufbau über Webkataloge, Artikelverzeichnisse, Linkkauf, Bookmarkverzeichnisse & Kommentar/Forenspam war natürlich immer schon ein Verstoß gegen die Google-Richtlinien. Die meisten Beteiligten waren sich dessen auch bewusst. Deswegen kann ich das ganze Gejammere jetzt nur sehr begrenzt nachvollziehen.

Bis zum ersten Penguin Update gab es grundsätzlich vor allem manuelle Abstrafungen von Google, wenn beim Linkbuilding übertrieben wurde. Dieser Weg ist aber nicht skalierbar, deswegen hat Google nach einer effektiveren Methode gesucht. Warum soll Google, wenn die Linkspammer mit automatisierten Tools in kurzer Zeit tausende von Backlinks “aufbauen” und dabei die Websites von vielen anderen Beteiligten zuspammen, beim manuellen Prozess bleiben? Das ist utopisch und nicht aggressiv genug, um das Problem zu bekämpfen.

Der bessere Weg ist ein automatisierter Filter, der alle Übeltäter auf einmal einfängt. Das ist auch der ehrlichste Weg: Bei einer manuellen Penalty wird eine Website in einem komplizierten Prozess bei Google in meinem früheren Team abgestraft, der Webmaster in den meisten Fällen auch benachrichtigt (was sehr fair ist). Eine andere auch gegen die Richtlinien verstoßende Website kann da durchflutschen und Glück haben. Deswegen ist ein Filter, der alle Websites gleich behandelt, wesentlich fairer und hier geht es nie gegen eine einzige Website, sondern um allgemein gültige Grenzwerte – und zwar für alle betroffenen Websites.

Genau dieser Punkt wird in den meisten Diskussionen komplett falsch wiedergegeben: “Google hat einzelne Websites auf dem Kieker, deswegen wird diese nicht aus dem Filter gelassen”. Das ist fachlich nicht korrekt. Die Website kann erst wieder aus dem Filter rutschen, wenn sie die gewissen Grenzwerte unterschreitet, die sie in den Filter hinein gebracht haben.

Bei Penguin ist das über zwei Punkte möglich: Die schlechten Backlinks identifizieren, über das disavow File entwerten oder noch besser wenn möglich abbauen. Und zweitens: sehr gute, neue Google konforme Backlinks aufbauen. Nichts anderes hilft hier oder ist nötig, da der Filter sich ausschließlich um die Low Quality-Backlinks dreht. Wichtig ist es hier, die unterschiedlichen Filter nicht miteinander zu vermischen.

 

Finde einen Job, den du liebst

2 Reaktionen
Putzen

Hallo,
ich freue mich über diesen Beitrag-- sehr sogar denn er macht klar dass nicht Google schuld an Verstoßen hat, sondern die Nutzer. Ich kann es nie verstehen wie man so agumetieren kann.

Antworten
Jörg Gastmann
Jörg Gastmann

Google ist entgegen Herrn Webers Behauptung oft unfähig, guten Content von schlechtem zu unterscheiden. So liegen z.B. amazon und ebay ohne jeglichen Text vorn, weil sie einfach nur lange Listen haben und einen Markenbonus geschenkt bekommen. Mir fällt oft auf, dass inhaltlich relevantere Seiten nicht vor schlechteren liegen.

Backlinks werden immer noch maßlos überbewertet. Eine 3- oder gar 4-stellige Zahl Backlinks ist bei fast allen Seiten ein Zeichen für manipulierte Links, mit denen Google sich täuschen lässt. Wenn man nicht Wikipedia, eine Zeitung oder eine sehr bekannte Marke ist, sind solche Backlink-Massen seriös nicht erreichbar.

Keyword Stuffing funktioniert auch immer noch sehr gut bei vielen Websites, da der Algorithmus Spam Signale oft nicht erkennt.

Beispiel: Googeln wir einmal passend zu diese Tagen "Kostüm Halloween". Auf den ersten beiden Plätzen präsentiert Google horrorklinik punkt de und karneval-megastore punkt de. Beide strotzen nur so vor Keyword Stuffing.

In kümmerliche 146 Worte eines inhaltlich schlechten Textes stopft horrorklinik punkt de 30 x das Wort "Halloween" (22% Keyword-Dichte!) und 18 x "Kostüm" (12% Keyword-Dichte). Zählt man alt-tags, titles, Dateinamen etc hinzu, kommt horrorklinik auf 60 x "Halloween". Bei karneval-megastore ist es kaum besser.

Wie erklärt sich Herr Weber, dass dieses massive Keyword Stuffing und die Spamsignale von Google nicht erkannt werden? Oder werden solche Seiten bald abgestraft?

Antworten
Bitte melde dich an!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden