私はバイオメトリクスについて議論している文書を読んでいて、この声明に出くわしました:
FBIで採用されている典型的な指紋認証システムは、1%の誤認率で90%の確証確率を実現しますが、0.01%の誤受理率では77%の確証確率しか実現しません。
これを念頭に置き、パーセンテージ間の関係を見て、誰かが検証の確率が誤った受け入れ率に反比例する方法を私に説明できますか?
私はFAR(false accept rate)の概念を理解し、それを計算するには次の方程式を実行する必要があることを理解しています。
imposter scores exceeding threshold/all imposter scores
ただし、「検証の確率」の概念、特にFARとの逆の関係が理解できません。誰かが一緒に2つを親切に説明してくれるなら、それは素晴らしいことです。
Ekhmm ...それらは逆に関連していません。それらは直接関連しています。一方が増加すると、もう一方も増加します。
70% | 0.01%
90% | 1%
70% < 90% and 0.01% < 1%
これは本当に機械学習の質問です。誤認率は誤検出です。つまり、ランダムな誰かが自分の指紋を別の人として確認する可能性があります。
Bobが指紋を生体認証システムにロードした許可された人物であると仮定します。これで、バイオメトリックセンサーのパラメーターを調整して、指紋を使用してボブがボブであるかどうかを確認できます。センサーを非常にうるさいように調整すると(許容しきい値が低い)、ボブは自分が最初の試行であることを確認する可能性が77%あります。イブがこの非常にうるさいシステムを介してボブになりすまそうとした場合、彼女の指紋がボブの最初の試みとして認識される可能性はわずか0.01%です。
センサーの「ピッキネス」を下げると(受け入れのしきい値が大きくなります)、ボブは自分がより簡単であることを確認できます。ボブは自分が指紋(最初の試行時)。一方、このあまりうるさくないシステムでは、イブがボブを偽装する大きなチャンスがあります。彼女の指紋を読み取る最初の試みで、センサーがイブの指紋が実際にボブの指紋であると結論付ける確率が1%あります(そしてイブを承認します)彼女がボブであるかのように)。
許容しきい値パラメーターを持つ機械学習システムは、上記の方法で実行されます。 MLでは、常に次のようになります。
完璧なMLシステムは真のポジティブとネガティブのみを提供しますが、そのようには機能しません。ノイズがあり、ノイズには許容しきい値が必要です。許容しきい値がないセンサーは、真陰性と偽陰性のみを提供します。しかし、誰も何もすることを許可されていないので、それは完全に役に立たないでしょう。
許容しきい値は、データベースに保存されている指紋と、センサーによって読み取られた指紋(およびMLシステムによって処理された指紋)との間で許容される差の量です。このしきい値を大きくすると、真陽性と偽陽性の数が増加します(しきい値がないと、真陰性と偽陰性しかなかったことに注意してください)。
記事の文脈では「検証の確率」はtrue positivesの量であり、 "false受け入れ率です。 「はfalse positivesの量です。