私は2つの言語でサイトを持っています:
domain.com (German)
en.domain.com (English)
内容は文学です。両方のサイトはそれぞれの言語のみですが、次の例のように、異なる言語のテキストを並べて比較するために、デュアルビューも提供します。
https://cn.nytimes.com/world/20180706/trump-germany-family-ancestry-kallstadt/dual/
ので、私は持っています:
domain.com/afx9-artikel (German only)
en.domain.com/afx9-article (English only)
そして、さらに、言語を比較するためのこれらのデュアルビューページ:
domain.com/afx9-artikel/en (German with English)
en.domain.com/afx9-article/de (English with German)
これらのデュアルビューページで何をする必要がありますか?
ありがとう!
これは興味深い質問です!
Rel = "nofollow"経由でのみリンクする必要がありますか?
いいえ。nofollowを使用してリンクしても、GoogleはURLをクロールし、インデックスが作成されるためです。
それらにまったくリンクせず、Javascriptを使用してユーザーがこれらのページにアクセスできるようにする必要がありますか?
これは有効なオプションですが、実装とGoogleがJSのクロールを改善するかどうかにもよりますが、それでもJSがインデックス化される可能性があります。
それらにrel = "canonical"を使用すべきですか?
内容が同一ではないため、一部のユーザーはそうではないかもしれません。しかし、同様の方法で実装された正規タグを見てきました。正規化されているページからもコンテンツの50%しか複製されず、正常に機能していました。
したがって、この状況では、標準を実装し、それを監視して、そのパフォーマンスを確認します。正規化されたページがGoogleのインデックスから外れている場合は、成功と言えます。また、一部のページにインデックスが付けられていても、ページのGoogleキャッシュを表示するときに、正規化されたページではなく、正規のソースページのコンテンツが表示される場合は、成功としてカウントします。
標準が機能せず、これらすべてのページがインデックス付けされている場合、ロボットでインデックス付けされないようにブロックします noindex、follow tag。
私が最初に標準的なものを試す理由は、ページに保持したい外部SEO値があるため、標準的なタグとともに渡され、noindexタグを使用するとほとんど失われるためです。
Robots.txtでブロックする必要がありますか?
Noindexタグルートを行ってSERPSから削除されたことを確認したら、robots.txtを介してのみブロックします。
以前にrobots.txtに追加した場合、検索エンジンはページをクロールできないためnoindexタグを表示せず、robots.txtでのみブロックされている場合、ページはインデックス付けされたままになります。
また、robotsメタタグとrobots.txtの両方でブロックする理由は、クロールの予算を節約するためです。有効なページのクロールに費やすことができる場合、インデックスに登録したくないGoogleクロールページは本当に必要ありません。したがって、robos.txtをブロックすると、Googleによるクロールが停止します