ブラウザにはフィッシングページを検出する機能がありますが、すべてを検出することはできません。何故ですか?
フィッシングは依然としてハッキングの最も便利な方法の1つです。ブラウザーがすべてのフィッシングページを検出できないのはなぜですか?.
私の知る限り、ブラウザがフィッシングページを検出する方法は2つあります。DNS検出とブラックリスト/ホワイトリスト検出です。ブラックリスト方式では、ページがフィッシング詐欺として複数のユーザーによって報告された場合、そのページはブラックリストデータベースに保存されます。したがって、新しいユーザーがそのリンクにアクセスすると、そのサイトは安全ではないことが示されます。他の方法(DNS検出)では、フィッシングページのURLが人気のあるWebサイトまたはブランドに似ている場合、ブラウザーはそれをフィッシングと見なします。この問題に取り組むために、Norton、iZooLogic、ScrapeBoxなどの有名なサイトから入手できるプラグインがいくつかあり、それらは同じように動作します。
ご覧のとおり、これらのメソッドにはいくつかの明確な制限があります。ハッカーは、異なる名前の新しいURLを思いつき続けます。フロントエンドコードについても理論上いくつかの進展がありましたが、完全には適用されていません。これは、フィッシングページのコードにいくつかの変更を加えることで簡単に回避することもできます。
そのため、(少なくとも今のところ)ブラウザがフィッシング攻撃を完全に阻止することはほとんど不可能です。
通常、ブラウザはフィッシングページを実際に検出するのではなく、 PhishTank または OpenPhish などのサービスによって提供されるURLのブラックリストを使用します。これらのリストに掲載されているWebサイトの一部はプログラムされた検出器によって提供されていますが、ほとんどはユーザーによって報告されています。
Chromeブラウザは、Gmailのレポートやその他のソースからコンパイルされたGoogleの大規模なフィッシングDBを使用して、そのようなフィッシングページへのアクセスをブロックします。GoogleのDB(Google SAfe Browsing DB)は使用可能であり、見つけることができます ここ 。
フィッシングページは非常に複雑で標的を絞っており、人間として、特にプログラムされた検出器として検出するのが非常に難しいため、実際に責任を負う人はいません。ブラウザは、ブラックリストにあるものをすべてブロックすることで、最善を尽くして支援します。
この理由は、最近の(および古い)ほとんどプロのフィッシングキャンペーンが、以下の例のような画像を使用しているため、検出が困難なためです。
また、ソースコードの難読化手法を使用して、レーダーから身を隠すことができます(たとえば、エンコーディングはHEX
、BASE64
またはカスタムエンコーディング、URLやメタデータなどの特定の場所と値)。
それから人々はそのような状況を報告する必要があります。