これは私のrobots.txtファイルの内容です:
User-agent: *
Disallow: /static/*
Disallow: /templates/*
Disallow: /translations/*
Sitemap: https://xx.xxx.com/sitemap.xml
ただし、Google Search Consoleでこのエラーが発生する理由はわかりません。
たぶん静的フォルダが原因ですか?質問は、ロボットから静的フォルダを削除する必要がありますか?
GooglebotがCSSにアクセスするのをブロックしないでください。
ブロックされたリソースのレポート-Search Consoleヘルプ
JavaScript、CSS、および画像ファイルは、一般的なユーザーのようにページを表示できるようにGooglebotで使用できるようにする必要があります。
サイトのrobots.txtでJavascriptまたはCSSファイルのクロールを許可しないと、アルゴリズムがコンテンツを適切にレンダリングおよびインデックス化し、ランキングが最適化されない可能性があります。