製品の重複/類似のコードベースが190ドメインにわたるサイトSEOに与える影響について疑問に思っていました。
特定のクラスの製品(例:)に対して190のディーラーグループがあります。同じ国のハードウェアと建築資材。ディーラーグループへのメンバーシップの一環として、メンバーは2500〜7000の製品のカタログを印刷して受け取ります。また、リストされたすべてのカタログ製品を含むWebソリューションを取得します。私たちはこれらのサイトをよりSEOフレンドリー(読みやすいURL、レスポンシブ、キーワードなど)にすることを検討しています。深刻なことは何もありません。すべてのWebサイトは同じコードベースを指し、その後、メンバーテンプレートと製品/カテゴリの可視性を取得して、サイトを表示します。
私の質問は次のとおりです...
同じIPから提供される異なるドメインの製品の繰り返しのリストに基づいて、負のランキング効果がありますか?何千もの製品には、同一の短い説明と長い説明、キーワード、コード、画像があります。
異なるドメインごとにサイトマップを実装し、xmlする最良の方法は何でしょうか?ディレクトリ内の各ドメインに対してサイトマップを生成することを検討しました。つまり、許可されていないボットファイルを含む/ allsitemapsを作成し、URLに応じて正しいサイトマップを指すサイトへのルートを追加して、www.sample.com/sitemap.xmlが実際に戻ることを検討しましたwww.sample.com/allsitemaps/sample.com/sitemap.xml。このアプローチはうまくいくと思いますか?
質問が基本的なものである場合は申し訳ありません。私は独自のサイトを適度に索引付けするのに十分なSEOの知識を持っていますが、検索エンジンがこのような状況にどのように反応するのか分かりません。トピックに関する情報を見つけるのに苦労しています。
前もって感謝します。
ただし、すべてのAmazonがWebの他の場所で見つかったコンテンツでいっぱいになった後、これを回避する方法があります。他の一意のコンテンツをサイトに追加する、iframeを使用して複製されたコンテンツを「隠す」など。
ここでこれに関するいくつかの良いヒント:
多数のURLでユーザー生成および製造元が必要とする重複コンテンツの処理
詳細はこちら: 複数のサイトのサイトマップを管理