t3n News Marketing

SEO-Audit in 13 Schritten: So optimierst du deine Suchmaschinen-Rankings

SEO-Audit in 13 Schritten: So optimierst du deine Suchmaschinen-Rankings

Bereit, die Rankings in zu erobern und erste Positionen bei bestimmten Suchbegriffen zu besetzen? Nicht so schnell. Bevor man sich an die Optimierung der eigenen Webseite macht, ist es hilfreich, eine umfassende Analyse durchzuführen, in der Fachsprache auch als SEO-Audit oder Site-Klinik bezeichnet.

SEO-Audit in 13 Schritten: So optimierst du deine Suchmaschinen-Rankings

(Grafik: Shutterstock)

Ein SEO-Audit untersucht meistens, ob die Prozesse, Anforderungen und Richtlinien nach allen Regeln der Suchmaschinenoptimierung durchgeführt worden sind. Wenn das nicht der Fall ist, hilft ein solches Audit zu identifizieren, wo die Optimierungspotentiale liegen und wo ungenutzte Chancen im Ranking oder in der Qualitätsverbesserung einer Webseite liegen. In großen Agenturen, die sich auf Suchmaschinenoptimierung spezialisiert haben, ist dieses Vorgehen state of the art. Auch größere Inhouse-Teams bedienen sich solcher Listen. Dieser Artikel zeigt in 13 Schritten, wie man ein professionelles und strukturiertes SEO-Audit sorgfältig planen und erfolgreich durchführen kann.

SEO-Audit richtig planen

SEO-Audit-Template zum Planen und Nachfassen. (Grafik: aleydasolis.com)
SEO-Audit-Template zum Planen und Nachfassen. (Grafik: aleydasolis.com)

Bevor man sich an die ausführliche SEO-Analyse wagt, sollte man sich zunächst einen gut durchdachten Plan zurecht legen. Die meisten können es kaum erwarten, direkt die Analyse zu starten und riskieren somit, einige der wesentlichen Faktoren aus den Augen zu verlieren. Auch das Nachfassen kann zu kurz kommen oder die Deadlines nicht eingehalten werden. Es ist also empfehlenswert, einen Plan zu erstellen, an dem man auch in Teams festhält. Wichtig ist, die wichtigen Suchmaschinenfaktoren dabei zu berücksichtigen. Auf dem Markt gibt es eine Reihe Templates und Best-Practice-Beispiele, wie eine SEO-Audit-Planung aussehen kann. Dabei können viele Kriterien wie Priorisierung oder Deadlines zur Umsetzung berücksichtigt werden.

Status Quo ermitteln

Ein SEO-Audit startet für gewöhnlich mit einer eingehenden Analyse der Website. Hierfür ist es empfehlenswert, diverse automatisierte Werkzeuge in Anspruch zu nehmen, da der manuelle Aufwand bei größeren Websites enorm hoch sein kann. Es gibt eine Reihe an kostenlosen und kostenpflichtigen Analyse-Tools, die eine Website vollständig oder teilweise überprüfen können. Im Idealfall berücksichtigen die Tools nicht nur das technische Setup einer Website, sondern gehen auf die internen Links, Content- und Website-Architektur ein. So kann man mit einem Werkzeug sämtliche Bereiche einer Website analysieren, ohne dass man mehrere Auswertungen zusammenführen muss. In der Praxis hat sich der Einsatz der Google-Search-Console bewährt. Die Google-Search-Console ist ein kostenloser Dienst von Google, bei dem Website-Inhaber ihre Websites mit der Search-Console verbinden und verschiedene Suchdaten analysieren können. Das Tool von Google gibt einen guten Überblick über die Strukturfehler, Code-Unstimmigkeiten oder kaputte Links. Anhand der Analyse können entsprechende Optimierungsmaßnahmen abgeleitet werden. Die Search-Console ermöglicht zwar einen guten Überblick über die Website-Daten. Wer jedoch noch tiefer in die Analyse einsteigen möchte, um tiefergehenden Daten zu bekommen, kann zusätzlich auch auf Tools wie Screaming Frog oder OnPage.org zurückgreifen.

Hinweis: Stell euch darauf ein, dass ihr ab diesem Zeitpunkt eine unglaublich große Datenmenge bekommt und die Daten gegebenenfalls auch zusammenführen müsst. Wenn euer Webauftritt sehr groß ist, empfiehlt es sich, sich zunächst nur auf die wichtigen Website-Bereiche zu beschränken.

Nach der Ermittlung des Status Quo kann das eigentliche SEO-Audit durchgeführt werden. Auf diese 13 Kriterien solltet ihr besonders achten, wenn ihr eine Website hinsichtlich Suchmaschinenfaktoren „auseinander nehmen“ wollt.

  1. Zugänglichkeit
  2. Seiten im Index analysieren
  3. Seitenstruktur nachvollziehen
  4. Interne Links
  5. Externe Links
  6. OnPage-Faktoren
  7. Content
  8. Keywords
  9. Wichtige SEO-KPIs
  10. Mobile
  11. International
  12. Rich Snippets
  13. Local

1. Zugänglichkeit prüfen (Accessibility)

Eine wichtige Voraussetzung für eine erfolgreiche Aufnahme einer Webseite in den Index ist ihre Zugänglichkeit. Es ist wichtig, sicher zu stellen, dass der Suchmaschinen-Bot die Seite korrekt überprüfen (crawlen) kann. Der Bot von Google wird als Google-Bot bezeichnet. Es ist ein Crawler, der die vorhandenen Webseitendaten erfasst, damit diese zum späteren Zeitpunkt indexiert werden können.

Auch hier kann die Search-Console Abhilfe schaffen, indem sie eine Webseite wie der Google-Bot überprüft und beim Crawling gefundene Fehler anzeigt. Der Google-Bot kann folgende Aktionen durchführen:

  • Erfassen von HTML-Dateien, Images, PDFs und anderen Dateienformaten
  • Erfassen von JavaScript, Ajax und CSS
  • Annahme der Cookies
  • URL-Normalisierung
  • Berücksichtigung der Robots.txt-Datei
  • Überprüfung von Subdomains
  • Sitemap berücksichtigen
  • Blockierte URLs ignorieren
  • uvm.

Der Google-Bot arbeitet so die Dokumente einer Webseite durch, folgt den Links, die sich auf den Seiten befinden und hat das Ziel, die gefundenen und relevanten Seiten entsprechend zu indexieren. Sobald der Bot eine Seite besucht, kann er als solcher identifiziert werden:

  • Googlebot - "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"

Um die Zugänglichkeit von bestimmten Seiten zu gewährleisten, sollte man bestimmte Regeln beachten, damit der Google-Bot alle wichtigen Seiten crawlen kann.

Robots.txt

Beispiel einer robots.txt von otto.de. (Screenshot: otto.de)
Beispiel einer robots.txt von otto.de.

Die Robots.txt-Datei ist eine Textdatei, die im Root-Verzeichnis hinterlegt wird und bestimmte Anweisungen für Crawler enthält. Bevor ein Suchmaschinencrawler mit dem Crawling beginnt, wird nach dieser Datei explizit gesucht und deren Anweisungen berücksichtigt.

Meta Tag „robots“

So wird das Meta-Tag „robots“ im Code deklariert.
So wird das Meta-Tag „robots“ im Code deklariert.

Das Meta-Tag „robots“ ist ein Meta-Tag, das im Header einer Seite deklariert wird. Es beinhaltet zwei Attribute, die dem Bot mitteilen, wie die Vorgehensweise für diese Seite erfolgen muss. Die vier Eigenschaften, die man im Tag mitgeben kann, sind: index oder noindex und follow oder nofollow. Dabei weisen die „index“- und „noindex“-Attribute auf die Indexierung hin und „follow“ beziehungsweise „nofollow“ auf das Crawling und das Folgen der vorhandenen internen und externen Links auf einer Seite.

Sitemap.xml

Beispiel einer XML-Sitemap-Datei.
Beispiel einer XML-Sitemap-Datei.

Die Sitemap ist eine Datei, die dem Crawler lediglich helfen kann, die richtigen und wichtigen Inhalte zu erfassen. Im Gegensatz zum robots-Tag und der robots.txt kann die Sitemap den Crawler nicht blockieren. Jedoch kann man in einer sitemap.xml sinnvolle indexrelevante Seiten hinterlegen, die dem Nutzer einen eindeutigen Mehrwert bieten. Darunter ist es auch möglich, bestimmte Seiten Google vorzuschlagen, die eine besonders hohe Priorität haben.

Ausschließen muss auch mal sein

Es können jedoch auch bestimmte Daten existieren, die sensibel sind und nicht im Suchmaschinenindex erscheinen sollen. Das könnten Listen mit Duplikat-URLs sein, der Login-Bereich einer Webseite oder Payment-Seiten. Auch Impressum und Datenschutzbestimmungen sind Klassiker unter den auszuschließenden Seiten. Diese sollten dann vom Crawling bewusst, mittels der oben genannten Maßnahmen, ausgeschlossen werden.

Die Zugänglichkeit für Suchmaschinen ist sehr wichtig für SEO, deshalb sollte man sich diesem Thema insbesondere widmen. Beantwortet man im Rahmen des SEO-Audits diese Fragen, dann ist man schon auf der sicheren Seite:

  • Ist der Google-Bot als Crawler zugelassen? (robots.txt/User-Agent-Weiche)
  • Wird die Webseite regelmäßig von Google gecrawlt?
  • Werden wichtige Verzeichnisse oder Unterseiten blockiert?
  • Existiert eine gültige sitemap.xml?
  • Werden wichtige Inhalte der Webseite durch die robots.txt oder über die Robots-Meta ausgeschlossen?

Vorheriger Artikel Zurück zur Startseite Nächster Artikel
10 Antworten
  1. von Elias am 16.02.2016 (09:46 Uhr)

    Schöne Übersicht für einen Einstieg in dieses Thema.

    Antworten Teilen
  2. von Irina am 16.02.2016 (09:56 Uhr)

    Danke, Elias.

    Antworten Teilen
  3. von Wolfgang Jagsch am 16.02.2016 (16:15 Uhr)

    Als Webtexter und Seo-Texter beschäftige ich mich jeden Tag sehr intensiv mit SEO. Das Wichtigste im Online-Marketing ist neben den SEO-Basics auch die Erfüllung der sogenannten Erwartungskonformität. Denken Sie immer an jenes Ereignis, welches das Bedürfnis bzw. das Problem auslöst, welches Sie befriedigen bzw. lösen. Bei der Webseitengestaltung müssen daher folgende fünf Schritte mitberücksichtigt werden:

    1. Zeigen Sie das Problem auf!
    2. Bieten Sie eine Lösung an!
    3. Erklären Sie die Vorteile!
    4. Machen Sie den USP klar!
    5. Verwenden Sie Call To Action!

    Antworten Teilen
  4. von Natalia Bolshakova am 17.02.2016 (08:56 Uhr)

    "onpage": Schreibt doch bitte dazu, dass das WERBUNG ist und ein Haufen Muell auszufuellen ist - von wegen kostenloser Check!

    Jetzt haben die eine Menge Daten von mir und ich - gar nichts.

    Von t3n kann ich mehr erwarten!

    Antworten Teilen
    • von Irina am 17.02.2016 (10:43 Uhr)

      Hallo Natalia,
      vielen Dank für Dein Feedback und schade, dass Du den Artikel als Werbung empfindest. Ich habe schon vor OnPage.org SEO-Audits durchgeführt und wollte mein Wissen mit anderen teilen. Zu Deinem Punkt mit der Werbung: Wir bieten einen kostenlosen Free-Account an. Der kostenlose Website-Check ist keine Verarsche oder ähnliches. Hattest Du die Zugangsdaten nicht erhalten? Gerne helfen wir weiter. Schreib mir bitte direkt an irina@onpage.org - dann schaue ich mir gerne an, wo es hakt. Beste Grüße!

      Antworten Teilen
  5. von Lukas am 17.02.2016 (10:19 Uhr)

    Super Artikel!
    In 99% der Fälle wird der Seiten-Title aber mit dem -Tag definiert.

    LG Lukas

    Antworten Teilen
  6. von Kleckaa am 18.02.2016 (17:36 Uhr)

    Sehr praktisch! Vielen Dank dafür!

    Antworten Teilen
  7. von arthur.koncar am 09.03.2016 (13:34 Uhr)

    Für einen Einstieg finde ich den Artikel wirklich brauchbar, vielen Dank dafür.
    Schade, dass es immer jemanden gibt, der meckern muß.

    Antworten Teilen
Deine Meinung

Bitte melde dich an!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Mehr zum Thema Suchmaschinen
co.cycles: Die Suchmaschine für Entwickler
co.cycles: Die Suchmaschine für Entwickler

Entwicklerhilfe mal anders: co.cycles gibt Antworten auf Alltagsfragen für Entwickler. » weiterlesen

Satellitenbilder durchsuchen mit Terrapattern: Suchmaschine arbeitet mit Künstlicher Intelligenz
Satellitenbilder durchsuchen mit Terrapattern: Suchmaschine arbeitet mit Künstlicher Intelligenz

In den USA arbeiten Forscher an der ersten frei zugänglichen Suchmaschine für Satellitenbilder. Damit sollen auch private Nutzer entsprechende Aufnahmen durchsuchen können. Ein Prototyp steht … » weiterlesen

Google-Alternativen: Die 25 besten Suchmaschinen im Kurztest
Google-Alternativen: Die 25 besten Suchmaschinen im Kurztest

„Googlen“ ist nicht nur im deutschen Sprachschatz synonym für eine Internetsuche, doch gerade hierzulande wünschen sich viele Nutzer in Zeiten des PRISM-Leaks andere Möglichkeiten zur … » weiterlesen

Alle Hefte Jetzt abonnieren – für nur 35 €

Kennst Du schon unser t3n Magazin?