web-dev-qa-db-ja.com

Googleですべてのsitemap.xmlレコードのインデックスを作成する方法は?

sitemap.xml 3つのXMLファイルがあり、インデックス用の約120ページのインデックスがあります。 1年が経ちましたが、まだ1/3がインデックスに登録されています。インデックス作成の最も重要なページはすべて1番目のサイトマップファイルにありますが、Googleは代わりに各サイトマップファイルから同様の量を取得します...

Googleですべてのインデックスを作成する方法sitemap.xmlレコード?

GWTでクロールレートをMAXに設定しています。

2
CamSpy

私がこの権利を持っているかどうかはわかりませんので、ここに私が理解したことを示します。

それぞれ約120ページの3つのサイトマップファイルがリストされたサイトマップファイルがあります。そして、これらのサイトマップファイルは約1年前のものです。私はその前提から働きます。

それを考えると、これは私が知っていることです。数百ページしかない場合は、1つのサイトマップファイルを使用します。サイトが変更された場合、サイトマップを書き直して、可能な限り優先度や更新頻度を含めてページの更新を反映する必要があります。 Googleは、サイトがスパイダーされる可能性のある小さなサイトマップについてあまり心配していません。これがサイトマップファイルを読み取っていない理由である可能性があります。必要ないかもしれません。

コンテンツの鮮度とサイトマップの鮮度が重要です。同様に、サイトマップは、直接リンクされていないページ、大きなサイトページのキューイング、コンテンツの新鮮さの理解など、クモに価値を追加する必要があります。そうしないと、サイトマップはほとんど無視されます。

Googleにサイトをスパイダーさせる最良の方法は、新鮮なコンテンツを持つことです。これがサイトマップを作成した理由だと思います。サイトマップが必要ない場合は削除します。上記のように値を追加できる場合は、それを維持します。いずれにせよ、コンテンツの鮮度は、Googleがサイトをスパイダーすることに興奮するための鍵です。しかし、サイトマップも新鮮でなければなりません。

幸運を祈る!

1
closetnoc

できません。 XMLサイトマップは、インデックスを作成するページを検索エンジンに伝えるためのものです。しかし、検索エンジンがそれらのページをクロールまたはインデックス付けすることを保証するものではありません。実際、検索エンジンに強制的にインデックスを作成する方法はありません。インデックスを作成する対象とその時期について独自の基準があり、それを変更することはできません。

3
John Conde

注意:

GWTでクロールレートをMAXに設定しています。

クロールレートを設定すると、実際にはしない Googleに最大レートでクロールを強制しますが、制限クロールレートになります。ボットは毎秒実行できます。

サーバーの使用に問題がない場合は、クロールレートをGoogleボットに決定させる必要があります。クロールレートは、主にページランクと、GoogleボットがWebサーバーで1秒間に実行できるリクエストの数に基づいて計算されます

Googleボットに強制的にクロールしてインデックスを追加するワンクリックの方法はありません。 Googleボットがウェブサイトを十分にクロールせず、ページのインデックスを作成していない場合は、ウェブサイトのエラーやコンテンツの重複を確認し、内部および外部リンクを改善することを検討してください。

1
krokola