私のウェブサイトは非常にJavaScriptが多すぎます。サイトのすべてのコンテンツは、JavaScriptを使用して非同期にロードされます。私の開発者はクローキングを実装しました-サーバーがGooglebotから要求された場合、サーバーはWebページの静的バージョンを送信します。私は最近、クローキングと呼ばれることを発見し、ブラックハットSEOテクニックと見なされました。
結果はどうなっているのでしょうか? この手法を使用してサイトの検索ランキングにどのような影響があるかを測定する方法はありますか?
これは、Googlebot(またはその他の問題)が来たときに行うべきではありませんが、javascriptが有効になっていない人には行います。
Googleが行うことができる最も明白なチェックは、他のヘッダーセットを送信して、googlebotのみに特定の結果を与えることを確認することです。 if( bot-headers-result != normal-headers-result ){ punish(); }
もう1つの理由は、正当にjavascriptを持たない(まれではあるが存在する)少数の人々が(一部の)機能を使用できるようになることです。
何らかのボット(またはコンテンツスクレイピングプログラムを使用してWebサイトをコピーするゲスト)に何らかのエラーで構成される特別な静的ページを意図的に提供している場合は理解できますが、他のすべてのユーザーは、同じコンテンツを検索エンジンに提供するだけです通常のユーザーにサービスを提供します。
Javascriptが何かを生成する必要がある場合、特に検索エンジンがページのランクを上げるために使用できるテキストコンテンツの場合、重要なテキストコンテンツまたはHTMLコードを生成しないでください。代わりに、テキストの下線などの詳細を変更してください。
ユーザー、特にJavascriptが無効になっているユーザーを優先し、検索エンジンボットを通常のユーザーとして扱います。
このエラーをできるだけ早く修正する必要があります。 Googleはこの種のことについて非常に厳格です。これはGoogleによって欺的な戦術と見なされており、彼らはあなたにペナルティを科します。実際のユーザーよりもGooglebotを優先するものがある場合。