監査中にフラグが付けられた重複コンテンツの4万ページ以上があります。ほとんどはURLのパラメーターによるものと思われます。形式は次のとおりです。
http://example.org/site/UserLogin
http://example.org/site/UserLogin?NEXTURL=http://www.domain.org/folder1/page1
http://example.org/site/UserLogin?NEXTURL=http://www.domain.org/folder2/page2
http://example.org/site/UserLogin?NEXTURL=http://www.domain.org/folder3/page3
Search Consoleにパラメーターを追加すると、これらの問題は解決しますか?
rel="canonical"
は、クライアントが使用しているCMSのため、オプションではありません。
私はそれ自体へのパラメータなしで元のページを調整しますが、これはGoogleにこれが元であり、残りは無視できることを説明しています。
<link rel="canonical" href="http://domain.org/site/UserLogin" />
最近、クライアントのWebサイトに対してこれを行う必要があり、数日かけて起動しましたが、重複を取り除きました。
(google)Search Consoleにパラメーターを追加すると、これらの問題は修正されますか?
他の検索エンジンがあるため、100%にはなりません。クライアントは、BingやYandexなどの他の検索エンジンで自分のWebサイトをインデックスに登録したいと考えています。パラメータを整理します。
ユーザーログインフォームのみを強調表示するページはカジュアルなゲストには価値がないため、HTMLの<head>
タグと</head>
タグの間に以下を追加して、検索エンジンにインデックスを作成しないように指示するのが最善です:
<META NAME="ROBOTS" CONTENT="NOINDEX">
セットアップでそれが不可能な場合は、次のHTTPヘッダータグを使用して同じ効果を実現できます。
X-Robots-Tag: noindex
header内のcanonicalタグがオプションではない場合、コンテンツの重複の影響を避けるためのいくつかの選択肢があります。
sitemapのメインコンテンツのみを指定し、すべての可変パラメーターなしで、正規URLのみを含め、非正規バージョンは含めない * 。
パラメータ処理ツールを使用してパラメータを処理する方法を示し、無視するパラメータをGoogleに通知します。- https://www.google.com/webmasters/tools/crawl-url-parameters