これはここからのフォローアップの質問です。 翻訳によるタイトルタグの重複
質問をしてから、問題のウェブサイトの言語/翻訳によって生成されていた重複コンテンツを削除しました。
回答では、削除された重複ページに対して410エラーを返す必要があると言われました。robots.txtを使用して重複ページのクロールを禁止し、クロールを再トリガーするFetch as Google機能。
私の質問は、実際にページを削除したことです(すべての翻訳オプションを削除しました)。Googleが次にサイトをクロールし、リンクがなくなったことに気付いたときに、これは自動的に修正されますか?複製されたコンテンツがなくなった場合、推奨事項を実行する必要がありますか?
Googleが次にサイトをクロールし、リンクがなくなったことに気付いたときに、これは自己修正されますか?複製されたコンテンツがなくなった場合、推奨事項を実行する必要がありますか?
他のエラーコードにより検索エンジンロボットが今後再びチェックする可能性があるため、インデックス化されたが使用できなくなったURLに対して、Webサイトが 410エラー を返すようにすることは確かに良い考えです。 robots.txtでそれらを禁止すると、Googlebotや他のロボットによる今後のリクエストも削減されます。
Google固有の場合、翻訳がディレクトリで提供されていた場合は、ディレクトリ全体の削除をリクエストすることもできます。方法については、こちらをご覧ください: サイト全体またはディレクトリを削除する
Fetch as Googleツールを使用すると、再クロールが開始されますが、削除されたURLが削除されるまでに数週間かかることがあります。次の検索演算子を使用して、Googleでそれらを確認できます:site:domain.com/url
。
要約すると、上記を行うことで、重複するコンテンツをより迅速に削除し、SEOを改善できる可能性があります。