web-dev-qa-db-ja.com

Googleセーフブラウジングの欠点は何ですか?

私は現在、フィッシング検出に関する私の論文を引き受けています。 Googleセーフブラウジングは、ウェブページを分類するために、常に更新されているブラックリストに依存していることを理解しています。彼らのブラックリストには、ゼロアワーのフィッシング攻撃を検出できないという欠点はありません。結局のところ、 ブラックリストは数千万のデータで毎日トレーニングされる機械学習アルゴリズムによって生成されます (ペーパーで彼らが参照する「ブラックリスト」が実際にセーフブラウジングで使用されていると仮定します)。

私の質問は、セーフブラウジングに依存する理由がないのですか?

逆に、Chrome(および独自のブラックリストを維持するFirefox、およびURLのリストにエントリが含まれていない場合にセーフブラウジングもクエリする)の人気を考えると、何らかの理由があります。代わりにブラウザ拡張機能を使用することを選択しますか?(たとえば SpoofGuard および Netcraft

さらに、セーフブラウジングを使用できるのに、フィッシングソリューションに投資するのはなぜですか(担当者が足りない、Entrust、PhishMe、LookingGlassCyber​​が提供するソリューションを参照)。

4
user3044500

Googleセーフブラウジングは現在、ほとんどの場合ローカルデータベースに対するオフラインチェックですが、フィッシング警告をユーザーに表示する前に、ブラウザーがgoogleに直接クエリする必要があります。オンラインチェックには最新の情報が含まれているため、これは誤検知の可能性を減らすために行われます。ただし、環境によってはプライバシーの問題と見なされる場合があります。

それとは別に、Googleセーフブラウジングのみに依存するだけでは不十分な場合があります。紙を読むと、彼らは主にGmailユーザーへのリンクとユーザーから報告されたいくつかの情報から入力を受け取っているようです。これは、Gmailユーザーをターゲットにしていない場合、攻撃者が遅れて検出する可能性が高い方法で入力にバイアスがかかることを意味します。したがって、これはないが別のバイアスがある他のソースを追加で取得すると役立つ場合があります。

また、彼らの論文によると、偽陽性率を低い0.1%に保つために、90%の再現率を目標としています。つまり、フィッシングページの10分の1は、そのように分類されません。再現率を上げると、誤検知率が高まるため、安全なページが悪質であると分類されます。しかし、誤検知率が大きくなっても、再現率が高くなる環境、つまり、申し訳ありませんが安全性が向上する環境があります。これらは、Googleセーフブラウジングをまったく使用しないことを主張するものではなく、Googleセーフブラウジングだけに依存しすぎることを否定するものです。

3
Steffen Ullrich