Google Webmastersでサイトマップを送信していたときに、「サイトマップのテスト」ボタンをクリックすると次のメッセージが表示されました。
-警告-robots.txtによってURLがブロックされました。
robots.txt
ファイルを見つけたとき、これはrobots.txt
ファイルで見たものです。
# BEGIN GENESIS SEO
User-Agent: *
Disallow: /category
Disallow: /tag
Disallow: /author
Disallow: /?s=*
# END GENESIS SEO
誰がこれの意味が何であり、どのように修正する必要があるか知っていますか?
Robots.txtは、サイトのどの部分を無視するか(および他の部分は公正なゲームである)を検索エンジンに伝えます。 sitemap.xmlは、サイトの最も重要な部分であると思われるもの、およびインデックスにそれらを含めることを検索エンジンに伝えます。
サイトマップに、ロボットファイルで許可されていないURLが含まれている場合、許可されていないもののインデックスを作成するように要求したため、その警告が表示されます。
サイトマップの内容に関係なく、GooglebotとBingbotは、ロボットファイルでブロックされている場合、インデックスを作成しません。
両者を同等にするには、ブロックされたURLをサイトマップから削除してから再送信するか、それらのURLのブロックをロボットファイルから削除します。どの道を取るかはあなた次第で、あなたのウェブサイトとその目的に依存します。
Robots.txtファイルでタグ、カテゴリなどのページをブロックすることは悪い習慣です。ほとんどの場合、これらのページはリンクとしてWebサイトでアクセスできます。これらのすべてのページに代わりにMeta Robotsタグを使用し、sitemap.xmlから除外します
サイトマップに対するGoogle警告を回避し、Googleからsitemap.xmlファイルに「尊敬」を得るには、少なくともsitemap.xmlからタグ、カテゴリなどのページを削除します。 sitemap.xmlでは、robots.txtでブロックされたページは使用できません。
これは、ユーザー(つまり、ボット)がアクセスできるリンクがブロックされていることを意味します。
どのrobot.txtエントリがこれを引き起こしているのかを見つけるには、一度に1つのエントリを試し(複数のエントリがこの問題を引き起こしている可能性があるため)、サイトマップを再度テストします。
最良の推測は、/ categoryまたは/ tagsリンクのいずれかが不必要にブロックされていることです。