Translations:Help:Robots.txt/8/ja

一般的には、新しいルールはそれぞれ新しい行で使用します. 検索エンジンの中には、robots.txtで使用できるいくつかのパターンを認識しているものがあります. 例えば、$disallowはパターンにマッチします. は、ワイルドカードを意味し、ルールの一部がURLのどの部分にもマッチすることを示します. は、URLがそのように終わらなければならないことを示すために使用されます.