一部のソースから、ジェネレーティブアドバタリーネットワークが監視されていないMLであると聞きましたが、わかりません。生成的敵対的ネットワークは実際には監視されていませんか?
1)2クラスのケースReal-against-Fake
実際、識別データにトレーニングデータを提供する必要があり、これは「実際の」データでなければなりません。 1.データに明示的なラベルを付けていなくても、最初のステップでトレーニングデータを使用して弁別子を提示することで暗黙的にラベルを付けます。これにより、弁別器が本物であることがわかります。このようにして、トレーニングデータのラベルをディスクリミネーターに何らかの方法で伝えます。逆に、ジェネレーターの最初のステップで生成されたノイズデータのラベル付けは、ジェネレーターが本物ではないと認識しています。
2)マルチクラスケース
しかし、マルチクラスの場合、それは本当に奇妙になります。トレーニングデータに説明を入力する必要があります。明らかな矛盾は、教師なしMLアルゴリズムへの応答を提供することです。
GANは、教師あり損失をトレーニングの一部として使用する教師なし学習アルゴリズムです。後者はあなたが電話を切っているところのようです。
教師あり学習とは、通常、データに関連付けられたラベルを予測するための学習を指します。 goalは、モデルを新しいデータに一般化するためのものです。
GANの場合、これらのコンポーネントはどちらもありません。データにはラベルが付いていないため、どのような種類の予測も新しいデータに一般化しようとしているわけではありません。 goalは、GANがデータの外観(つまり、密度推定)をモデル化し、学習した内容の新しい例を生成できるようにするためのものです。
GANは、教師なし学習を行うために教師あり学習問題を設定し、偽の/ランダムに見えるデータを生成し、サンプルが偽のデータと実際のデータのどちらであるかを判断しようとします。これは監視されたコンポーネントです。しかし、それはGANのgoalではなく、ラベルは取るに足らないものです。
監視対象外のタスクに監視対象コンポーネントを使用するという考えは、特に新しいものではありません。ランダムフォレストはこれを外れ値検出(ランダムデータと実際のデータについてもトレーニング)のために長い間実行しており、外れ値検出用のOne-Class SVMは、元のデータが実際のクラスと単一ポイントである監視された方法で技術的にトレーニングされています外れ値クラスとして扱われる空間の原点(つまり、ゼロベクトル)。
どちらでもない。おおよその階層は次のようになります。
machine learning methodology
+
|
|
v
+-----------------------------------------------+
| | |
| | |
v v v
supervised unsupervised reinforcement