攻撃者がリモートでコードを実行する可能性があるのは、ビジョンベースの機械学習システム(オブジェクト認識など)の実装にどのような脆弱性があるのですか?
考えられる唯一の例は、MLベースのテキスト認識システムで悪意のあるテキスト入力を介して悪用される脆弱性(例、バッファーオーバーフロー)です。
私の知る限り、AI/MLアルゴリズムを活用するために行われた唯一の作業は、不正な分類への "adversarial" input that that fool classifiers を含みます。これらは主に、MLベースの認証をバイパスし、自動運転車などの混乱するシステムに役立ちますが、分類を行うコンピューターを攻撃するのには役立ちません。
このトピックに関して行われている研究はありますか、それともより標準化されたMLベースのシステムが実際に配備されるまではありそうにありませんか?
バッファオーバーフローはテキストだけで発生するわけではないため、画像処理で何かを悪用する「画像」を渡すことができる場合があります。ただし、不正なコードは常に存在しますが、 OWASPには適切なサンプルページがあります を使用しており、オーバーフローする可能性のある単純な関数を作成できます。
int main(int argc, char **argv)
{
char items = imageprocessor(); // process image seen
char buf[8]; // buffer for eight characters
strcpy (buf, items); // cause the overflow
printf("Items seen are: %s\n", buf); // print out data stored in buf
return 0; // 0 as return value
}
ここで、コンピュータービジョンアルゴリズムがアイテムを識別し、それらのアイテムがコンマで区切られたchar配列を返すことをお勧めします。アルゴリズムが車、箱、象を特定すると、オーバーフローが発生します。アルゴリズムがテキスト文字を識別する場合、オーバーフローへの入力を制御できる可能性があります。
AppleのFaceIDはバイパスされました などの敵対的な入力とソフトウェアをすでに特定しましたが、これらはWindowsで使用されている検証方法 WindowsのWBFなど ではなく、 MLメソッド。