Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Interview

Ex-Googler Jonas Weber mit Insights zum Penguin 4.0 Update

Seite 2 / 4

OnlineMarketing.de: Wie macht sich eine Bestrafung durch Penguin bemerkbar?

Weber: In der Vergangenheit war es so, dass Websites beim Penguin Update übergreifend die meisten Rankings verloren haben, wenn sie einen zu hohen Anteil an Low Quality-Backlinks hatten. Anstatt auf Seite eins rankt die Website dann auf den hinteren Suchergebnisseiten, wenn überhaupt. Um diesen Filter wieder zu lösen, war es notwendig, das Backlinkprofil zu reinigen (Abbau/Entwertung und Aufbau von neuen hochwertigen Backlinks), also an den prozentualen Anteilen zu arbeiten. Dann hatte man die Möglichkeit, beim nächsten Penguin Update wieder aus dem Herabstufungs-Filter heraus zu kommen.

Unglücklich war hierbei, dass Google für das letzte Update über zwei Jahre gebraucht hat. Das heißt, wenn eine Website, die sofort aufgeräumt hat, trotzdem weiterhin negativ vom Filter betroffen war. Das war mit Sicherheit nicht die Absicht von Google und dieses Problem war intern bekannt. Ein Google Update ist aber ein technisch sehr komplexes Projekt, wo der nächste exakte Launchtermin nicht ohne weiteres planbar ist.

Meiner Meinung nach war das Penguin Update eines der erfolgreichsten von Google. Gerade nicht Google konforme SEO Methoden hat es hier hart getroffen. Mit Linkdoping gestützte Websites wurde der Boden unter den Füßen weggezogen.

Ich habe eigentlich keinen Fall gesehen, in dem es eine Website unberechtigterweise getroffen hat. Websites, die sich nicht am unnatürlichen Linkaufbau beteiligt hatten, haben zu Recht profitiert. Viele Linkkaufbau-Budgets sind Richtung Erstellung von hochwertigen Website-Inhalten geshiftet, das ist eine gesunde Entwicklung.

Screenshot: wki-absaugtechnik.de
(Screenshot: wki-absaugtechnik.de)

OnlineMarketing.de: Was bedeutet in diesem Zusammenhang ein Filter?

Weber: Ein Filter schlägt automatisch an, wenn gewisse Grenzwerte überschritten werden. Das können zu viele schlechte Backlinks sein, zu schlechte Usersignale oder auch eine unnatürliche Onpage Optimierung. Wird der Grenzwert wieder unterschritten, kann ich den negativen Filter automatisch lösen, brauche also keine menschliche Unterstützung bei Google. Der Filter ist eine mathematische Formel und Teil des Algos. Hier erhält der Webmaster keine Benachrichtigung, da es keine individuelle Website betrifft, sondern allgemeiner Teil des Algos ist.

In der Regel sind die Filter im Kernalgo platziert, das heißt, die Daten werden laufend aktualisiert. Ist eine Website betroffen, hat diese sehr zeitnah die Möglichkeit, wieder aus dem Filter zu kommen.

Eine Ausnahme sind neue Updates und Filter. Diese funktionieren zwar auch auf skalierte Weise über Grenzwerte, aber die Daten werden nicht immer automatisiert gezogen, sondern es gibt einen sogenannten Status quo, an dem der Knopf mehr oder weniger manuell gedrückt wird. Das neue Update muss sich sozusagen “einpendeln”. Hier müssen wir dann bis zum nächsten Data Refresh warten, weil es eben nicht automatisch aktualisiert wird. Beim Panda Update war das am Ende monatlich der Fall, was sehr fair ist.

Bei Penguin hat der letzte Refresh eben über zwei Jahre gedauert, das war nicht ganz optimal. Aber bei einem kleinen Update werden nur die Daten aktualisiert. Bei einem größeren eben auch der Filter bzw. die Grenzwerte und Faktoren des Filters. Das macht die ganze Sache deutlich komplexer und zeitaufwendiger. Bei Penguin 4.0 war genau das der Fall.

Das Gegenstück sind die manuellen Abstrafungen. Diese werden von echten Menschen aus dem Search Quality Team von Google vergeben. Genau diese echten Menschen sind aber auch wieder nötig, um die manuelle Penalty zu entfernen. Dies passiert dann über einen Wiederaufnahmeantrag über die Search Console. In der Regel erhält der Webmaster hier eine Benachrichtigung per Email und/oder der Search Console.

OnlineMarketing.de: Wie kann ich im Falle einer Bestrafung vorgehen?

Weber: Zunächst mal ist es nötig, eine komplette Audit der Website durchzuführen. Nur so lässt sich herausfinden, welcher Filter oder welche manuelle Penalty für die Rankingverluste verantwortlich ist.

Oft stellt sich dann heraus, dass es gar kein Filter/Penalty Problem ist, sondern ein technisches. Oder ein einziges Keyword springt von drei auf zwölf und der Kunde sieht gleich die große Abstrafung anstatt normaler Volatilität.

Wenn es doch ein Filter-Problem ist, dann ist die Website so zu verbessern, dass die Grenzwerte wieder unterschritten werden. Da die Grenzwerte den Beteiligten hier nicht bekannt sind, ist ein großer Erfahrungsschatz notwendig, oft empfiehlt sich hier externe Hilfe. Bei Penguin 4.0 werden die Daten jetzt bei jedem Crawling aktualisiert, also können die Grenzwerte sehr schnell wieder unterschritten werden.

Bei einer manuellen Penalty erhält der Webmaster in der Regel eine Email, in der genau steht, wo das Problem liegt und was zu tun ist, um dieses zu lösen.

Finde einen Job, den du liebst

Bitte beachte unsere Community-Richtlinien

2 Reaktionen
Putzen

Hallo,
ich freue mich über diesen Beitrag-- sehr sogar denn er macht klar dass nicht Google schuld an Verstoßen hat, sondern die Nutzer. Ich kann es nie verstehen wie man so agumetieren kann.

Jörg Gastmann
Jörg Gastmann

Google ist entgegen Herrn Webers Behauptung oft unfähig, guten Content von schlechtem zu unterscheiden. So liegen z.B. amazon und ebay ohne jeglichen Text vorn, weil sie einfach nur lange Listen haben und einen Markenbonus geschenkt bekommen. Mir fällt oft auf, dass inhaltlich relevantere Seiten nicht vor schlechteren liegen.

Backlinks werden immer noch maßlos überbewertet. Eine 3- oder gar 4-stellige Zahl Backlinks ist bei fast allen Seiten ein Zeichen für manipulierte Links, mit denen Google sich täuschen lässt. Wenn man nicht Wikipedia, eine Zeitung oder eine sehr bekannte Marke ist, sind solche Backlink-Massen seriös nicht erreichbar.

Keyword Stuffing funktioniert auch immer noch sehr gut bei vielen Websites, da der Algorithmus Spam Signale oft nicht erkennt.

Beispiel: Googeln wir einmal passend zu diese Tagen "Kostüm Halloween". Auf den ersten beiden Plätzen präsentiert Google horrorklinik punkt de und karneval-megastore punkt de. Beide strotzen nur so vor Keyword Stuffing.

In kümmerliche 146 Worte eines inhaltlich schlechten Textes stopft horrorklinik punkt de 30 x das Wort "Halloween" (22% Keyword-Dichte!) und 18 x "Kostüm" (12% Keyword-Dichte). Zählt man alt-tags, titles, Dateinamen etc hinzu, kommt horrorklinik auf 60 x "Halloween". Bei karneval-megastore ist es kaum besser.

Wie erklärt sich Herr Weber, dass dieses massive Keyword Stuffing und die Spamsignale von Google nicht erkannt werden? Oder werden solche Seiten bald abgestraft?

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Hinweis

Du hast gerade auf einen Provisions-Link geklickt und wirst in Sekunden weitergeleitet.

Bei Bestellung auf der Zielseite erhalten wir eine kleine Provision – dir entstehen keine Mehrkosten.


Weiter zum Angebot