Translations:Help:Robots.txt/20/de

[Mindestens ein oder mehrere  oder   Einträge pro Regel] Ein Verzeichnis oder eine Seite, relativ zur Root-Domain, die von dem gerade genannten User-Agent gecrawlt werden darf. Dies wird verwendet, um eine -Direktive außer Kraft zu setzen und das Crawlen eines Unterverzeichnisses oder einer Seite in einem nicht erlaubten Verzeichnis zu erlauben. Bei einer einzelnen Seite sollte der vollständige Seitenname, wie er im Browser angezeigt wird, angegeben werden. Im Falle eines Verzeichnisses sollte die Regel mit einem  Zeichen enden.