Anzeige
Anzeige
Marketing
Artikel merken

SEO: 7 Tipps zur Onpage-Optimierung

Gute Rankings basieren nicht allein auf guten Inhalten, sondern auch auf einer sauberen Struktur deiner Website. Mit welchen Kniffen du dir Vorteile verschaffst, erklärt Kevin Jackowski von OnlineMarketingEinstieg.de.

Von Kevin Jackowski
7 Min. Lesezeit
Anzeige
Anzeige

(Grafik: Shutterstock)

Wer seine Website erfolgreich in Suchmaschinen platzieren will, sollte versuchen, ein tieferes Verständnis für deren Funktionsweise zu bekommen. Es sollte als Privileg angesehen werden, über die Suchergebnisse zielgruppenrelevanten Traffic zu erhalten.

Anzeige
Anzeige

Damit Seitenbetreiber von diesem Privileg profitieren können, sollten sie Suchmaschinen das Crawling der eigenen Website vereinfachen. Diese haben schließlich das Interesse, Suchenden die passenden Antworten auf ihre Fragen zu geben. Fragen, die Seitenbetreiber am liebsten mit ihrer eigenen Website beantworten.

Worauf legen Suchmaschinen wert?

Damit die eigene Website zu den relevanten Fragen beziehungsweise Keywords gefunden wird, müssen die Crawler der Suchmaschinen die relevanten Unterseiten erreichen, deren Inhalte interpretieren und korrekt verarbeiten. Erst dann landen sie im Index und werden gegebenenfalls zu passenden Suchanfragen ausgeliefert.

Anzeige
Anzeige

Heutzutage geht es in fast allen Bereichen um Energie und Effizienz – so auch bei Suchmaschinen. Jede Website erhält ein bestimmtes Index- und Crawlingbudget, das den Crawlern den für eine Domain veranschlagten Zeitaufwand vorgibt. Webmaster können hier entscheidende Fehler machen, indem sie die vorhandenen Budgets für die falschen Ressourcen verwenden. Mithilfe einiger Hinweise können sie die Relevanz einzelner Inhalte festlegen. Suchmaschinen verstehen diese Hinweise, setzen davon ausgehend Prioritäten und lassen sich somit in gewissem Ausmaß steuern.

Anzeige
Anzeige

Die Anweisungen im Detail

Webmaster, die verstanden haben, dass sie mit den vorhandenen Budgets sorgsam haushalten sollten, können von den Ressourcen, die ihnen die Suchmaschine zur Verfügung stellt, bestmöglich profitieren. Doch worauf achten Crawler? Welche Hinweise sind für sie relevant und beeinflussen die Verarbeitung einer Website? Diese Fragen soll mein Artikel beantworten.

1. Schütze dich vor Duplicate Content

Vorsicht, vor „Duplicate Content“. (Foto: <a href="http://www.shutterstock.com/pic-227571610/stock-photo-many-paper-male-characters-of-office-staff.html">Shutterstock</a>)

Vorsicht, vor „Duplicate Content“. (Foto: Shutterstock)

Vielen Webmastern ist nicht bewusst, dass doppelte Inhalte zu Problemen führen. Zum einen fällt es Suchmaschinen schwer, das „richtige“ Dokument für Suchanfragen auszuliefern. Zum anderen verschwenden doppelte Inhalte das vorhandene Crawling-Budget, sodass relevante Inhalte möglicherweise nicht in den Index gelangen. Suchmaschinen werden immer besser darin, doppelte Inhalte zu erkennen und das erstgenannte Problem zu beheben. Für Webmaster resultieren doppelte Inhalte aber dennoch in einer Verschwendung des eigenen Budgets.

Anzeige
Anzeige

In einigen Fällen lassen sich doppelte Inhalte nicht vermeiden. Seitenbetreiber sollten den Crawlern unter diesen Umständen im Quelltext erklären, wie sie damit umgehen sollen. Hilfreich sind dabei folgende Möglichkeiten:

  • Das Meta-Tag „noindex“: Es sorgt dafür, dass eine Webseite nicht in den Index aufgenommen wird. Das Meta-Tag wird in den <head> der Seite geschrieben und sieht folgendermaßen aus: <meta name=“robots“ content=“noindex“>. Es hilft dabei, die doppelte Indexierung von „Duplicate Content“ zu vermeiden.
  • Das Canonical-Tag: Es wird genutzt, wenn sich mehrere Seiten kaum oder gar nicht voneinander unterscheiden. Die „Duplikate“ einer Seite verweisen per Canonical-Tag auf das „Original“. Webmaster erklären der Suchmaschine damit, welche Unterseite in den Index aufgenommen und bei passenden Suchanfragen ausgeliefert werden soll. Auch das Canonical-Tag wird in den <head> der Seite geschrieben und sieht folgendermaßen aus: <link rel=“canonical“ href=“http://www.beispiel.de/“>.
  • Korrekte Statuscodes: Seitenbetreiber sollten auf korrekte Statuscodes achten, damit Suchmaschinen wichtige Ressourcen sparen. Die folgenden Statuscodes sind für Suchmaschinen besonders relevant:
    • Statuscode 200 – OK: Er signalisiert den Crawlern, dass mit dieser Seite alles in Ordnung ist und dass ein Dokument erreichbar ist. Wichtig: Sollte es sich um eine Fehlerseite handeln, die eigentlich den Status 404 erhalten sollte, dann muss diese auch als 404-Seite gekennzeichnet werden. Ist das nicht der Fall, spricht man von „Soft 404“-Fehlern.
    • Statuscode 301 – Moved Permanently: Ist eine Ressource dauerhaft unter einer anderen URL vorhanden, sollte die Weiterleitung per Statuscode 301 erfolgen. Dieser Statuscode sorgt dafür, dass relevanter „Linkjuice“ weitergegeben wird. Wenn also eine Weiterleitung dauerhaft und nicht temporär ist, nutze immer „Statuscode 301“.
    • Statuscode 302 – Found: Beim Statuscode 302 erhalten Crawler die Information, dass eine Webseite nur temporär unter einer anderen URL erreichbar ist. Dadurch wird kein „Linkjuice“ an das neue Linkziel weitergegeben.
    • Statuscode 404 – Not found: Ein 404-Fehler erklärt Crawlern, dass ein Dokument nicht unter der angegebenen URL verfügbar ist – ein schlechtes Zeichen. Webmaster sollten die Anzahl dieser Fehler gering halten. Die Webmaster-Tools helfen, 404-Fehler auf der eigenen Website aufzuspüren.
    • Statuscode 500 – Internal Server Error: Wenn Server einen internen Fehler feststellen, geben sie meist einen Statuscode 500 aus. Crawler beenden an dieser Stelle häufig das Crawling und kommen zu einem späteren Zeitpunkt noch einmal zurück, damit der Server nicht zusätzlich belastet wird.
    • Statuscode 503 – Service Unavailable: Wird der Statuscode 503 ausgeben, ist der Server überlastet oder wird gewartet. Für Crawler ist das ein Hinweis darauf, dass sie ihre Arbeit zu einem späteren Zeitpunkt fortsetzen sollten. Mithilfe des Header-Felds „Retry-After“ können Webmaster angeben, wann der Server wieder in der Lage ist, externe Anfragen zu bearbeiten.

2. Vermeide Weiterleitungsketten

Weiterleitungsketten (auch „Redirect-Chains“) rauben Crawlern wichtige Ressourcen. Webmaster sollten diese deshalb bestmöglich vermeiden. Die inkorrekte Nutzung von Statuscodes kann dazu führen, dass „Linkjuice“ nicht weitergegeben wird, weshalb Seitenbetreiber mit dem korrekten Statuscode (meist 301) auf neue Linkziele verweisen sollten. Suchmaschinen brechen das Crawling der Weiterleitungsketten teilweise ab. Auf mobilen Geräten sorgen sie außerdem für steigende Ladezeiten.

3. Strukturiere deine Website mit Sitemaps

Sitemaps bieten die Chance, Crawlern schon zu Beginn ihrer Arbeit einen Überblick zu geben und Prioritäten zu setzen. Sie können inhaltlich separiert werden und lassen sich auch nach Datentyp trennen. so gibt es Sitemaps für:

Anzeige
Anzeige
  • Inhalte,
  • Videos,
  • Bilder,
  • News,
  • mobile Inhalte.

Damit sie gefunden wird, sollte die Sitemap in der robots.txt der Website stehen. Ist die maximale Größe limitiert, können Webmaster einen Master erstellen, der alle weiteren Sitemaps enthält.

Die einzelnen Sitemaps können Seitenbetreiber außerdem in den Google-Webmaster-Tools einreichen. So lässt sich kontrollieren, inwieweit die Sitemaps bereits von der Suchmaschine bearbeitet wurden.

Mithilfe folgender Attribute können Webmaster dem Crawler weitere Informationen zukommen lassen:

Anzeige
Anzeige
  • <changefreq>: Dieses Attribut gibt an, wie häufig sich der Inhalt des Dokuments ändert und wann ein Recrawl angebracht ist. Es stehen folgende Attribute zur Auswahl: always, hourly, daily, weekly, monthly, yearly, never. Seitenbetreiber können mithilfe dieser Attribute beispielsweise auch einzelne Seitenbereiche kennzeichnen, deren Inhalte sich seltener ändern, Archive sind hierfür ein gutes Beispiel.
  • <priority>: Webmaster, die in der Sitemap die Wertigkeit einzelner Unterseiten unterscheiden möchten, können das mit diesem Attribut tun. Es gibt an, wie hoch die Priorität eines einzelnen Dokuments im Vergleich zu allen anderen Dokumenten ist. Der Standardwert liegt bei „0,5“, die gesamte Spanne liegt zwischen „0,1“ und „1,0“. Mithilfe dieses Attributs können Webmaster der Suchmaschine mitteilen, welche Dokumente ihnen besonders wichtig sind, damit die Suchmaschine hierfür mehr Ressourcen aufwendet.
  • <lastmod>: Das Attribut gibt an, wann eine Sitemap das letzte Mal geändert wurde. Wichtig: Es geht hierbei nicht um die Inhalte, sondern um die Sitemap. Der Einsatz dieses Attributs ist also nur nach der Anpassung der Sitemap nötig.

4. Mache schwer crawlbare Inhalte verständlich

Crawler hatten in der Vergangenheit teilweise Schwierigkeiten mit Ajax-basierten Inhalten. Obwohl die Verarbeitung mittlerweile besser geworden ist, sollten Webmaster den Crawlern bei der Verarbeitung aller Unterseiten helfen. Wenn Ajax genutzt wird, um Content dynamisch nachzuladen, sollte folgendes beachtet werden:

  • Damit Crawler die per Ajax ausgezeichneten Elemente verarbeiten, müssen sie ausgezeichnet werden. Hierzu müssen den Crawlern andere URLs zur Verfügung gestellt werden, wie Google in einer Anleitung erklärt.
  • Die URLs müssen ein Token in den Hash-Fragmenten enthalten, das den Crawlern den Ajax-Inhalt signalisiert. Bei eindeutigen Seiten handelt es sich bei dem Token um ein Ausrufungszeichen.
  • Die Crawler müssen für jede zu indexierende URL vom Server einen HTML-Snapshot erhalten, der alle für den Nutzer sichtbaren Inhalte enthält. Damit der Server weiß, welche Version er den Crawlern geben muss, ändert dieser temporär die Ajax-URL. Er ersetzt den Hashwert (#!) in „?_escaped_fragment_=“ und erfragt damit den Snapshot.
  • Bei Seiten, die ohne Hash-Fragmente indexiert werden sollen (beispielsweise die Startseite oder einzelne Unterseiten), muss folgendes Meta-Tag in den <head> der Seite eingefügt werden: <meta name=“fragment“ content=“!“>. Auch hier wird ein HTML-Snapshot für die jeweilige Seite benötigt, die Crawler vom Server erfragen können.
  • In den Sitemaps sollten die URLs eingetragen werden, die auch so in dieser Form indexiert werden sollen.

Um als Webmaster sicher zu gehen, dass die Suchmaschine alle Ajax-Inhalte verarbeiten und indexieren konnte, sollte man es mithilfe der Google-Webmaster-Tools prüfen. Im Bereich „Crawling“ findet man den Menüpunkt „Abruf wie durch Google“. Hier müssen Nutzer nur die URL mit dem Hashwert (#!) eintragen und auf „Abrufen und rendern“ klicken.

5. Nutze die Vorteile von internen Links

CC-BY-2.0)

Mithilfe von internen Links können Seitenbetreiber die wichtigsten Unterseiten ihrer Website definieren. Die Häufigkeit, mit der ein Dokument verlinkt wird, signalisiert Crawlern dessen Priorität. Besonders wichtig ist auch die Erreichbarkeit: Je schneller eine Unterseite von der Startseite aus erreichbar ist, desto größer ihre Bedeutung. Seitenbetreiber sollten demnach eine flache Hierarchie wählen oder alle Unterseiten mithilfe von optimierten Paginierungen, Linkmodulen oder Sitemaps zur Verfügung stellen.

Anzeige
Anzeige

6. Schaffe Zusammenhänge

Crawler haben Probleme, den Zusammenhang zweier Unterseiten zu erkennen, insbesondere, wenn es sich um paginierte Artikel handelt. Seitenbetreiber können hier mit den Attributen <rel=“next“> und <rel=“prev“> abhelfen. Sie werden im <head> einer Webseite hinterlegt und stellen so eine Beziehung zwischen mehreren Dokumenten her.

Das Attribut <rel=“next“> verweist auf die nächsten Teile eines Dokuments, <rel=“prev“> auf die vorherigen Teile. Crawler erkennen dadurch nicht nur den Zusammenhang zweier Webseiten, sondern auch ihre Reihenfolge.

7. Stelle strukturierte Inhalte bereit

Strukturierte Daten bieten Seitenbetreibern eine weitere Möglichkeit, dem Crawler zusätzliche Informationen über die auf einer Webseite hinterlegten Inhalte zu geben. Sie werden mittels Tags auf den Unterseiten eingebunden und wirken sich teilweise auf deren Darstellung in den Suchergebnissen aus. Man spricht in diesem Kontext auch von „Rich Snippets“. Es gibt sie unter anderem für folgende Informationstypen:

Anzeige
Anzeige
  • Bewertungen
  • Veranstaltungen
  • Personen
  • Breadcrumbs
  • Rezepte
  • Produkte
  • Unternehmen
  • Musik

Um zu testen, ob diese Daten innerhalb des Dokuments korrekt ausgezeichnet wurden, bietet Google ein „Test-Tool für strukturierte Daten“.

Fazit

Nicht nur einzigartige und hochwertige Inhalte, sondern auch eine optimale technische Infrastruktur beflügeln die Rankings deiner Websites. Denke deshalb immer an deine zwei Zielgruppen: die Nutzer, die deine Inhalte lesen möchten, und die Crawler, die sie interpretieren und verarbeiten müssen.

Sie wollen beide …

Anzeige
Anzeige
  • inhaltliche Zusammenhänge erkennen,
  • wichtige Informationen auf einen Blick erhalten,
  • mit wenig Aufwand thematisch ähnliche Informationen finden,
  • das ausgewählte Dokument lesen,
  • einen gut strukturierten Aufbau erkennen,
  • möglichst viele relevante Zusatzinformationen erhalten und
  • wenig Energie für das Suchen relevanter Informationen aufwenden.

Wenn du auf diese Wünsche eingehst, sicherst du dir die Sympathie der Nutzer und Crawler. Und das Beste ist: Sie werden es zu schätzen wissen.

Einen grundlegenden Einstieg in das Thema Onpage-Optimierung liefert unser Artikel „Onpage-SEO: Die wichtigsten Rankingfaktoren“.

Über den Autor

Kevin JackowskiKevin Jackowski ist Online-Marketing-Experte und veröffentlicht auf OnlineMarketingEinstieg.de regelmäßig Inhalte rund um die Themen „Online-Marketing-Grundlagen“ und „Karriere im Online-Marketing“. Wenn du dich für dieses Thema interessierst, folge ihm auf Facebook.

Mehr zu diesem Thema
SEO
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
24 Kommentare
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

hannes

mh. joa. im beitrag stehen interessante ansatzpunkte. ich frage mich nur, warum diese inhalte – welche ja bekannt sind und zur „allgemeinbildung“ gehoeren – wieder aufgewaermt werden. viel spannender waeren doch beitraege u. artikel zu der frage: „wie passe ich meine onpagestrategie auf eine nachweisbare zielgruppe an?“ oder „welche zusammenhaenge bestehen zwischen der _technischen seo_ und der befriedigung von vorher identifizierten zielgruppen?“. lg

Antworten
Olli

Interessanter Ansatz. Bei den Statuscodes würde ich noch die hinzufügen, die seit Mitte Dezember von Google auch gefunden werden durch die Ausführung von <script….. Dadurch kommen z.B. auch 303 und andere zum Tragen.

Antworten
Alex

Tolles Artikel, danke! Interessant wäre noch, ob bei interner Verlinkung relativ oder absplut verlinkt werden soll.

Antworten
Peter

ja, soweit interessant. Aber eben nichts neues. Alles tausend mal bereits gedruckt und veröffentlicht. Duplicat Content ist per Se übrigens gar nicht einmal schlecht und rankt sogar sehr gut. Ein Irrtum, der bei vielen SEOs herrscht.

Antworten
johannes.wbs

peter, das ist richtig u. es existieren m.u. voellig falsche vorstellungen vom DC. ich versuche bei entsprechenden diskussionen immer das dc-argument so zu entkraeften, indem ich auf die vielen mode, moebel u. touristik-projekte verweise … die dinger ranken ja m.u. enorm trotz DC und hierfuer gibt es ja gruende. diese gruende herauszufinden ist aufgabe der „szene“. oder … wir kennen es ja auch anders … es kommen klienten mit >=10.000 produkte per dropshipping. will man denen das kostenintensive neuverfassen von produktbeschreibungen aufschwatzen? also ich nicht und ich sehe auch hier die aufgabe der „szene“, kompensationsloesungen fuer ein eventuelles DC-problem zu (er)finden.

Antworten
nonsoloamore

Im Grunde nicht schlecht, aber viel zu technisch. Für „Laien“ hätte man noch erklären können, wie man bestimmte Verzeichnete etc. anlegt bzw. erstellt. Bringt einen nicht wirklich weiter…

Antworten
Martin

Bei 4. sollte heutzutage ein Hinweis auf die HTML5 History API obligatorisch sein, womit Googles bisheriger Weg mit den hashbangs so langsam obsolet wird, vgl. z. B. http://diveintohtml5.info/history.html

Antworten
c.spieker

, , — Wir haben das wirklich rauf und runter getestet und haben festgestellt, das die 3 Parameter KEINERLEI AUSWIRKUNGEN auf den GOOGLE BOT haben (Ich spreche nur von Google). Hast Du das schon mal getestet?

Antworten
c.spieker

Ups wurde geschluckt „“changefreq““

Antworten
c.spieker

Kein Mensch verwendet im SEO einen 304er ist schon schade wenn die Techies von SEO sprechen und keine Ahnung haben (((-:

Antworten
DerFrey

Das ist ja das Problem das es kein Mensch verwendet ;-)

Mit dem 304er sicher eine Frage der persönlichen Philosophie. Folgt man aber der Ausführung des Artikels, auch wenn inhaltlich nun wirklich nicht neu, dann gehört zu dem „Budget“ auch der vernünftige Umgang mit Ressourcen. Und wenn schon Statuscodes dazu gehören, dann doch bitte auch alle.

Ich habe schon Seiten getestet die konsequent nur den 200er kennen für die reguläre Auslieferung des Inhalts. Würde man den 304er korrekt nutzen ergeben sich halt Vorteile gegenüber dem Besucher, gegenüber der Suchmaschine. Schnellerer Seitenaufbau da die Seite ja aus dem Browsercache kommt, Reduzierung der Serverlast durch Entfall der erneuten Kompilierung der Seite, deutlich weniger Traffic da der 304er nach W3-Spezifikation keinen Body benötigt, …

Bei dem einen oder anderen von mir bereits gesehenen Projekt ließen sich da einige Gigabyte an Traffic sparen und die Serverperformance deutlich effizienter gestalten. Muss eben auch nicht immer direkt ein Varnish-Cache sein.

Und nun noch ein philosophischer Punkt für die „Grünen“ unter uns… (Kann ich mir nicht verkneifen – Sorry): Der 304er ist aktiver Umweltschutz! Weniger Traffic, weniger Rechenleistung = weniger Stromverbrauch.

Antworten
Steven Broschart

Wer es noch nicht kennt: Die ganze Thematik als „SEO-Bilderbuch“ -> http://optimizingexperts.de/bilderbuch-seo-in-15-minuten-der-seodoc-1494/

Antworten
Iris

Vielen Dank für den Tipp.

Antworten
Iris Kombeny

Interessant! Wir empfehlen allgemein „Jeopardy!“ zu spielen, um die Suchmaschinenoptimierung kostenlos zu verbessern: https://www.1min30.com/?p=19199
LG, Iris.

Antworten
Hansjörg Leichsenring

Bzgl. der Ausführungen zu den Sitemaps: Ich habe gelesen, dass man Bilder und Videos nach Möglichkeit in die XML-Sitemap integrieren sollte. Ich finde aber für WordPress nur Plugins, die jeweils einzelne Sitemaps erstellen.
Oder habe ich etwas übersehen?

Antworten
Christian Geng

Ich möchte auch noch einmal kurz Stellung zum inhaltsgleichen Text (engl. DC) nehmen. Wir produzieren schon seit vielen Jahren inhaltsgleichen Text mit großem Erfolg. Wir ändern hierbei nur die Basisdaten wie Reisedatum in Abhängigkeit vom Preis und – wichtig – URL und Meta-Titel. Lesern gefällt das, sie erhalten über Google nicht alle x-Millionen, leicht abgeänderte, DC-Seiten, sondern immer eben nur eine relevante mit aktuellen Preisen. Google gefällt das auch. Auch andere bekannte Reiseveranstalter sind mit diesem System sehr erfolgreich.

Antworten
Kristin Gogolok

Fachfrage: Seit wann schreibt man die Sitemap in die robots.txt – ist dieser Tipp wirklich ernst gemeint?

Antworten
DerFrey

So in etwa seit 2008. Da gab es eine Einigung zwischen den Suchmaschinen wie eine robots.txt standartisiert werden könnte.

Zwingend ist dies natürlich nicht. Die „klassische“ Art im Root-Verzeichnis unter „sitemap.xml“ tut es natürlich auch.

Ich mache es, weil ich mir denke „man braucht die Suchmaschinen ja nicht auf blauen Dunst versuchen lassen eine Sitemap zu finden“. Anderer Vorteil: man ist nicht auf das strikte einhalten „/sitemap.xml“ angewiesen. Man könnte die Sitemap so also auch in ein Unterverzeichnis schieben und auch andere Endungen nutzen (bspw. sitemap.php“) wobei diese immer noch validen XML-Code ausgeben müssten.

Alle Suchmaschinen unterstützen den Eintrag in der robots.txt auch nicht. Meines Wissens sind es „nur“ Google und Yahoo und noch ein paar kleinere.

Antworten
OnpageDoc

Ich glaube die wichtigste SEO-Maßnahme ist HANDELN. Wir haben schon zig Mal gelesen was wie getan werden muss und wissen was wir machen müssen, irgendwie hapert es aber immer an der Umsetzung :-)
@Steven: Dein Link funktioniert nicht:

„Wartungsmodus

Enschuldige die Unannehmlichkeiten,
unsere Website is aktuell in Wartungsarbeiten.
Vielen Dank für das Verständis.“

Antworten
Steven Broschart

Link ist wieder erreichbar.

Gruss, Steven

Antworten
mehrmark

Man kann es auch extrem ausweiten… hab grad das hier gefunden:
http://www.hewo-internetmarketing.de/onsite-onpage-optimierung

Wie soll man denn so eine Liste abarbeiten…???
Da sind 7 Punkte doch einfacher… thx Kevin

Antworten
Martin Steudter

Wirklich Neues ist ja nicht dabei… Dazu fehlt meiner Meinung nach der Fokus auf Content Content Content.

Viele Shops und Internetseiten Betreiber verhaspeln sich in haufenweise technischen SEO Baustellen und übersehen, dass es schlicht im die richtigen Inhalte geht.

Ein Betreiber der keine Ahnung von technischem SEO hat wird (zu Recht) viel bessere Ergebnisse mit reinem schreiben von vernüftigen Texten haben als wenn die Seite alle oben genannten SEO Maßnahmen umgesetzt hat.

Klassiker sind Sitemaps… Braucht man die? Nö… dauert eben länger bis google den Content hat, aber wenn der Top ist wir der dennoch durch die Decke gehen.

mehr zu SEO gibt’s auf unserem Blog http://www.ecommerceKmu.de Vielleicht hilft das jemandem weiter ;-)

Antworten
dennismenzel

Netter Artikel. ;)
Sind schon einige wichtige Punkte dabei, welche auch wirklich wichtig bei der OnPage Optimierung sind. Man kann das aber auch noch weiterführen, gibt noch so viele Sachen, welche man beachten kann bzw. sollte um seine Seite zu optimieren.

Habe gestern diesen Artikel gefunden: http://online-marketing-site.de/onpage-optimierung

Da sind einige interessante und nützliche Tipps. Gibt sogar ne nette Checkliste als PDF, wo man die einzelnen Punkte abhaken kann usw …

LG
Dennis

Antworten
Putzen

Echt ein super Bericht. Meinen Respekt und großen Dank für die investierte Arbeit und Mühe. Hier liest man immer wiedergerne mit.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige