いくつかの動的に生成されたURLがあります。
正規表現を使用して、robots.txtファイルでこれらのURLをブロックできますか?
Robots.txtでは正規表現は有効ではありませんが、Google、Bing、およびその他のボットはパターンマッチングを認識します。
URL内のexample
があるすべてのURLをブロックする場合は、ワイルドカードエントリを使用できます*
User-agent: *
Disallow: /*example
また、ドル記号$を使用して、URLをそのように終了する必要があることを指定できます。したがって、example
で終わるすべてのURLをブロックしたいが、URLのどこかにaexample
があるURLはブロックしたくない場合は、次のように使用できます。
User-agent: *
Disallow: /*example$
Googleの詳細については、こちらをご覧ください: Robots.txt仕様 、Bingはこちら: Robots.txtファイルの作成方法 と、インタラクティブなガイドがありますMoz ここ