Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Ratgeber

Was ist eigentlich die Robots.txt-Datei?

(Grafik: twillo.com)

Die robots.txt – gesehen haben wir sie alle schon mal, aber was macht sie eigentlich und wofür ist sie zuständig?

Die robots.txt, genauer gesagt das Robots-Exlusion-Standard-Protokoll, ist eine Textdatei, die vorgibt, welche Verzeichnisse gelesen werden dürfen und welche nicht. Die Crawler suchen beim Aufruf einer Website zuerst nach der robots.txt und interpretieren diese. In der robots.txt stehen also Bestimmungen, die die Suchmaschinen-Bots, die unter anderen für die Indexierung und Analyse der Website zuständig sind, befolgen sollen. Damit die robots.txt gefunden wird, muss sie sich im Domain-Root befinden.

Inhalt der robots.txt

Der Inhalt einer robots.txt besteht einfach gesagt aus zwei Angaben: Einer Spezifikation des Bots und der Beschreibung der Dateien, die der Bot ignorieren soll. Der Bot wird mit user-agent: angesprochen und kann dann eine anschließende, genaue Bezeichnung erhalten oder mit * gekennzeichnet werden, was dann alle Bots betrifft. Das Ausschließen von Dateien erfolgt mit dem Tag disallow: und dem entsprechenden Indexpfad. Hier ein Beispiel:

# Das könnte ein Kommentar sein
User-agent: UniversalRobot/1.0
User-agent: mein-Robot
Disallow: /quellen/dtd/

User-agent: *
Disallow: /fotos/
Disallow: /temp/
Disallow: /fotoalbum.html 

In den ersten drei Zeilen werden der UniversalRobot und der mein-Robot angesprochen, die Dateien aus dem Verzeichnis /quellen/dtd/ und alles, was sich dadrunter befindet, zu ignorieren. Ab der vierten Zeile werden alle Bots angesprochen, das Verzeichnis fotos, temp, und die fotoalbum.html Datei zu ignorieren.

Was mit der robots.txt nicht geht

Es ist ausgeschlossen, mit der robots.txt Dateien vor Zugriffen zu schützen – hier sollte der Passwortschutz des Webservers verwendet werden. Die meisten Bots halten sich zwar an den Exlusion-Standard, aber da es keine Pflicht ist, gibt es immer wieder Ausnahmen. Ebenfalls ist ausgeschlossen, mit der robots.txt auf bestimmte Verzeichnisse zu verweisen und sie zu indexieren. Lediglich die Anweisung, Verzeichnisse nicht zu indexieren, ist möglich.

Finde einen Job, den du liebst

Bitte beachte unsere Community-Richtlinien

5 Reaktionen
Davis Brown

Was ein SEO über die robots.txt wissen sollte
http://blog.templatetoaster.com/robots-txt-file-work/

Antworten
egal

Mich würd nur mal interessieren wie ich nicht nur Verzeichnise auf Dateiebene, sondern auch auf URL Ebene von einer Indexierung ausschließen kann (also z.B. domain.tld/news nicht indexieren, auch wenn /news/ kein echter Ordner ist sondern nur ein virtueller Pfad der Domain).

Antworten
Ruslan

Zunächst einmal sei gesagt, dass ein Robots.txt disallow eine Indexierung nicht automatisch mit sich bringt, lediglich das nicht-Crawlen. Die einzig garantierte Methode ist es, über die Metatags zu gehen:

Antworten
Ruslan

meta name="robots" content="noindex"

egal

Ah, an einen Meta-Tag hatte ich garnicht gedacht. Danke!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.