私はDCGANの人々の実装を読んでいます、特に this one テンソルフローで。
その実装では、作成者は、ディスクリミネーターとジェネレーターの損失を引き出します。これを以下に示します(画像は https://github.com/carpedm20/DCGAN-tensorflow からのものです)。
弁別器と発生器の両方の損失は、どのパターンにも従わないようです。一般的なニューラルネットワークとは異なり、そのニューラルネットワークの損失は、トレーニングの反復回数の増加と共に減少します。 GANのトレーニング時に損失を解釈する方法は?
残念ながら、GANについて述べたように、損失は非常に直感的ではありません。ほとんどの場合、ジェネレーターとディスクリミネーターが互いに競合しているため、一方の改善は他方の損失の増加を意味し、受信した損失について他の人がよりよく学び、競合他社を台無しにするなどです.
今度は、データと初期化に応じて十分な頻度で発生する1つのことは、識別器と発生器の両方の損失が、次のように永続的な数値に収束していることです。 (損失が少し跳ね返っても問題ありません-モデルがそれ自体を改善しようとしている証拠にすぎません)
この損失の収束は、通常、GANモデルが最適化を見つけたことを意味し、それ以上改善することはできません。これは、十分に学習したことを意味するはずです。 (また、数値自体は通常、あまり有益ではないことに注意してください。)
ここにいくつかのサイドノートがありますが、私は助けになると思います: