2. Teil der Praxistipps für Website-Betreiber: Traffic steigern, Umsatz erhöhen
based-on-it.de – PDF-Optimierung
Bereits im ersten Teil der Serie ging es um die Vorteile von Site-Abfragen, die einen schnellen Eindruck der indizierten Seiten einer Domain geben. Die Site-Abfrage von www.based-on-it.de zeigt dabei viele PDFs mit guten Platzierungen. Aus diesem Anlass ein paar allgemeine Hinweise zu PDF-Dateien. Generell sollten Website-Betreiber bei PDFs Vorsicht walten lassen, damit kein Duplicate Content entsteht. Will man Inhalte nicht in Suchmaschinen publizieren, bietet es sich an, das Verzeichnis via robots.txt zu sperren:
User-agent: * Disallow: /pdf-dateien/*
Listing 1
Eine einzelne PDF-Datei zu „verstecken“, ist dagegen schwierig, denn die Aufnahme des Dateinamens direkt in die robots.txt – also zum Beispiel: „Disallow: /pdf-dateien/hello-world.pdf“ – macht es dem User sehr einfach, die Adresse im Browser aufzurufen. Es gilt bei PDF-Dateien, einige weitere Aspekte zu beachten:
- PDF-Dateien haben Dokumenteigenschaften, die man sich im Adobe Reader unter „Datei -> Eigenschaften“ ansehen kann. Die hier eingestellten Dokumenteigenschaften sind starke Indikatoren für Suchmaschinen. So entspricht „Titel“ dem Titel des Suchergebnisses.
- PDF-Dateien sollten unkomprimiert sein und der Text sollte nicht in Pfaden stehen. Beachtet man diese Regel nicht, kann eine Suchmaschine den Text kaum auslesen.
- Links in PDF-Dateien sind auch suchmaschinenrelevante Links. Website-Betreiber sollten entsprechend in jeder PDF-Datei mit einem sinnvollen Linktext auf die Landingpages verweisen.
- PDF-Dateien werden gedruckt und sind damit Printwerbung. User drucken die Seiten aus und legen sie auf ihren Schreibtisch. Deshalb bietet es sich immer an, Kontaktinformationen im PDF deutlich zu platzieren.
- Unternehmen drucken meist in Graustufen und dies sollte man bei der Gestaltung von PDF-Dateien und Druckausgaben von Websites berücksichtigen – hellgrün auf dunkelblauem Hintergrund sieht nur in Farbe „gut“ aus.
einfachbilliger.com – Robots und Template
Bei der Preissuchmaschine einfachbilliger.com fällt sofort auf, dass die Seite von einem großen Suchfeld dominiert wird. Das ist auch durchaus sinnvoll, denn die Hauptfunktionalität eines derartigen Service ist eben die Suche, allerdings besteht an dieser Stelle dennoch Verbesserungsbedarf. Der Cursor wird bei anderen Suchmaschinen wie zum Beispiel Google direkt in das Suchfeld gesetzt, sobald die Seite geladen ist – nicht so bei einfachbilliger.com. Hier lässt sich mit einem nur kleinen Handgriff (dank JavaScript) die Usability schnell erhöhen.
Im Code von einfachbilliger.com befindet sich direkt im Header das Tag <meta name=“revisit-after“ content=“1 day“ />, das getrost gelöscht werden kann. Jede relevante Suchmaschine entscheidet zunächst selber, wie oft sie zum Crawlen vorbeikommt. Schlimmer jedoch ist es, wenn eine Suchmaschine die Aufforderung „komme jeden Tag vorbei“ sieht und die Suchmaschine theoretisch jeden Tag vorbeikommt, nach ein paar Wochen jedoch feststellt, dass sich der Inhalt gar nicht täglich ändert und so sinnlos Ressourcen verschwendet wurden. Das führt zu einem schlechteren Ranking und sollte daher in jedem Fall vermieden werden.
Das Blog von einfachbilliger.com weist ein weiteres alt bekanntes Problem auf: Oft sind fertige Templates für WordPress, PHPbb oder ein Wiki nicht ideal für die Suchmaschinenoptimierung. Es lohnt sich in jedem Fall, das Language-Tag zu überprüfen.
Dieses befindet sich in Zeile 2 des Quellcodes und sieht wie folgt aus: <html xmlns=“http://www.w3.org/1999/xhtml“ xml:lang=“en“ lang=“en“>. einfachbilliger.com sollte dieses Tag bei einer Optimierung für den deutschen Markt dringend ändern. In Verbindung mit einer .com-Adresse kann es ansonsten zu erheblichen Problemen mit der Lokalisierung kommen. Generell lässt sich also sagen: Aufgepasst bei „fertigen“ Templates.
Social Bookmarks, Webkatalog-Pflichtlinks und Bad Neighbourhood
Auf den t3n-Aufruf zu optimierungsbedürftigen Websites meldeten sich erwartungsgemäß eine Menge Blogs. Vielen Bewerbern aus diesem Sektor kann man einige allgemeine Tipps geben. Beim Stöbern durch die eingereichten Seiten fiel schnell auf, dass quasi alle Blogs Social-Bookmarking- oder Social-News-Buttons verwenden.
Darüber hinaus waren viele Blog-Betreiber dabei, die sich in Webkataloge eingetragen und den Pflichtbutton zum Webkatalog in ihr Blog eingebaut haben. Es lässt sich darüber streiten, ob Social-Media-Buttons wirklich etwas bringen. Allerdings ist messbar, ob User diese Buttons überhaupt anklicken oder Bookmarklets und Browserextensions nutzen.
Blogbetreiber sollten sich bewusst sein, dass derartige Buttons zum Anbieter verlinken. Damit geht Linkpower verloren. Besonders gefährlich wird es, wenn der Anbieter einen Penalty kassiert, also eine Abstrafung von Google. Dann zeigt der Link nämlich auf eine abgestrafte Seite, was das entsprechende Blog im Ansehen von Suchmaschinen nicht gerade steigen lässt.
Bei Social-News-Diensten ist die Gefahr einer Abstrafung durch Google vielleicht nicht ganz so hoch wie bei Social-Bookmark-Services, bei Webkatalogen und Webverzeichnissen ist sie deutlich größer. Ob Webkataloge überhaupt viel bringen, ist schon fast eine philosophische Frage.
Wenn ein Webkatalog aber einen Backlink erfordert, bevor das Blog aufgenommen wird, sollte sich der Betreiber zweimal überlegen, ob er diesen Dienst verwenden will. Auf jeden Fall sollten besonders Blog-Betreiber stets sehr vorsichtig sein, auf wen sie verlinken. Seiten, die offensichtlich abgestraft wurden, sollten Blogs lieber nicht verlinken.
Was mache ich falsch, dass es mit den Social Bookmarks leider nicht so klappt? Ich habe zwar mehrere Dienste zur Auswahl, doch die Besucher halten sich sehr bedeckt mit dem Verlinken. Ist das bei Shops weniger angesagt als bei „normalen“ Homepages?
ich habe auch noch nicht geschafft über facebook die Massen zu locken, ab und an kommt mal einer man muss sich wohl aktiv damit beschäftigen