そのため、サイトには多くの重要なページへのinbound links
があり、これらのリンクにはURL parameters
があります。これらのURLパラメーターは、基本的にfor tracking purposes
だけで使用されます。これは、Amazonがロゴにリンクする方法と同様です。 http://www.Amazon.com/ref=nav_logo
リンクされた各ページは、これらのリンクが表示される場所(ヘッダー、フッター、サイドバー、コンテンツ内など)に基づいて異なるURLパラメーターを持つことができます
また、(URLパラメーターを使用してリンクされている)ページには、URLパラメーターのない元のページを指すURLを持つcanonical tags
がありますが、問題は URLパラメーターなしでこれらのページへのサイト全体の直接リンク。
今、私はto preserve crawl budget
が欲しいのですが、ここに私が持っているオプションがあります:
そのため、クロール予算を維持するためにクロールをブロックすると、Googleは正規のURLを表示できなくなります。正規のページをGoogleに知らせる唯一の方法はサイトマップです。
ただし、Googlebotがページ上のライブURLをクロールできなければ、ページに表示されているように、リンクをたどってこれらのページに重み、権限、関連性を与えることはできません。 それは正しいですか?
クロールの予算も最適でありながら、リンクをURLパラメーターに保持しながら、すべての重み/権限を取得する最良のシナリオは何ですか?
ただし、Googlebotがページ上のライブURLをクロールできなければ、ページに表示されているように、リンクをたどってこれらのページに重み、権限、関連性を与えることはできません。そうですか?
理論上はそうですが、検索エンジンがアクセスできないページへのバックリンクを持っているという私の個人的な解釈は、それらが小さな役割を果たしているということです。それらはアクセス可能なときに持つことができるすべてのリンク権限を持っているわけではありませんが、同時にそれらが完全に無視されているとは思いません。
クロールの予算も最適でありながら、リンクにURLパラメーターを保持しながら、すべての重み/権限を取得するための最良のシナリオは何ですか?
これは、リンク権限とクロール予算の古典的なトピックです。これらは常に挑戦的です(そして楽しい!)。
リンクビルディングに焦点を当てたSEOは、あなたにリンク権限を求めます。
テクニカルSEOから、クロール予算に進むように指示されます。
私は自分をオールラウンドなSEOだと思っています。したがって、手作業を必要とする組み合わせをお勧めします(オプションの場合-この問題の範囲がわかりません)が、これらのページへのバックリンクが十分に強力な場合、それは価値があると思います:
ご質問があればお知らせください。
検索コンソールのURLパラメーターツール を使用するオプションをお勧めします。トラッキングパラメータごとに、ツールに追加し、「ページコンテンツに影響を与えない(使用状況を追跡する)」に設定します。
これらがパッシブパラメータであることをGooglebotに伝えると、Googlebotは通常、特定のパラメータ値を持つ1つのURLのみをクロールします。パラメーターを削除でき、GooglebotがパラメーターのないURLへのリンクを見つけた場合、通常はパラメーターと値を完全に省略することを好みます。その後、Googleのアルゴリズムは、すべての受信リンクからのすべての重みをこの1つのパラメーターに割り当てることができます。
検索結果に表示されるトラッキングパラメーターの値を制御する場合は、ページで rel canonical link tag を使用して、検索エンジンでページをインデックスに登録する方法を指定できます。 rel正規リンクを使用しても、ボットが多数の重複URLをクロールすることを防ぐことはできませんが、リンクジュースを統合し、インデックスを作成するものを選択できます。