Robots.txt内のJavaScriptファイルをブロックしても大丈夫ですか、それともWebサイトをSEO単位で傷つけることはできますか?
Panda 4の更新後(2014年5月)、cssおよびjsファイルをブロックするとseoが強制終了されます。
ここにニースのケーススタディがあります。
https://yoast.com/google-panda-robots-css-js/
現在、Googleはユーザーと同じようにページを表示したいので、クライアント側のスクリプトとスタイルシートを表示できるようにすることが重要です。
あなたはそれをする理由を述べていないので、一般的な答えはノーです。
JavaScriptファイルは通常クロールされず、検索エンジンはそこにあることを知っていますが、ユーザー向けのコンテンツがないため、通常は何もしません。そのため、検索エンジン/クローラーの観点からそれを行う必要はありません。
ユーザーはrobots.txtファイルを使用せず、JavaScriptファイルを確認したい場合は、コードを確認した後に直接アクセスできるため、通常のユーザーの観点からはあまり意味がありません。
特定の質問については、いや、基本的に誰もそれに注意を払わないというルールなので、それはあなたのSEOを傷つけません。
ミスをしてコンテンツのあるフォルダーをブロックすると、潜在的に悪影響を与える可能性がありますが、そのミスをしないと仮定しても、利点も欠点もありません。