数週間前、Googleが機密情報として保持したいいくつかの情報を個別のPDFファイルの形式でインデックス付けしたことがわかりました。私たちの仮定は、これは私たちが見落としていたrobots.txtの問題だということでした。これが当てはまるかどうかはわかりませんが、robots.txtファイルは有効な形式であり、Googleのウェブマスターツールによると、ファイルをブロックしていることは確かです。
ただし、数週間前に行われたこの調整の後でも、GoogleはPDFファイルのインデックスを作成していますが、robots.txtファイルが存在するため、追加情報を提供できないことを示しています。うまくいけば理解できるように、これはドキュメントの性質による望ましくない動作です。この目的でGoogleからリクエストページが提供されていることは承知していますが、lotのファイルがあります。 Googleに検索エンジンからすべてのファイルを削除させる簡単な方法はありますか?そうでない場合は、Googleにすべてのページを削除するように手動でリクエストする以外に、何かアドバイスできることはありますか?
コメントで述べたように、robots.txtはファイルのクロールのみをブロックし、SERPからファイルを削除しません。
PDFファイルをSERPから削除するには、ファイルの提供に使用されるHTTPヘッダーに X-Robots-Tag:noindex を追加します。 X-Robot-Tagをnoindexディレクティブと一緒に使用するか、前述のように GWTでの削除プロセス を高速化すると、時間の経過とともにドロップアウトします。 GWTで削除する場合、robots.txtで既にブロックされている場合は、X-Robots-Tagを追加する必要はありません
メタタグ、つまりインデックスなし、フォローなし、またはロボットで許可せずに除外することができます。 txt。