DNN
で使用される意味でのTensorFlow
は、「 deepニューラルネットワーク 」を意味すると思います。しかし、「深い」ニューラルネットワークの概念が他の場所で広く使用されているように思われるため、これは非常に混乱しているように見えます。
対照的に、多くの人々がこの用語に遭遇する最初のインスタンス( tfEstimatorクイックスタートのサンプルコード で):
# Build 3 layer DNN with 10, 20, 10 units respectively.
classifier = tf.estimator.DNNClassifier(feature_columns=feature_columns,
hidden_units=[10, 20, 10],
n_classes=3,
model_dir="/tmp/iris_model")
これは疑わしいほど浅く聞こえ、古いスタイルの多層パーセプトロン( [〜#〜] mlp [〜#〜] )ネットワークのようにさらに疑わしく聞こえます。ただし、その最も近いソースの代替用語としてのDNN
についての言及はありません。 TensorFlow tf.estimator
コンテキストのDNN
は実際にはMLP
ですか? hidden_units
パラメータに関するドキュメントは、これが事実であることを示唆しています:
その上にMLPが書かれています。この理解は正しいですか?したがって、DNN
は誤称です。もしそうであれば、DNNClassifier
はMLPClassifier
を優先して非推奨にすべきですか?それともDNN
はdeepニューラルネットワーク以外のものを表していますか?
「深い」ニューラルネットワークの定義を教えてください。そうすれば答えが得られます。
しかし、はい、それは単なるMLPであり、実際の適切な命名はMLPclassifierです。しかし、これは現在の名前ほどクールに聞こえません。
まず、DNNの定義は ビットを誤解させる です。
ディープニューラルネットワークにはいくつかのアーキテクチャがあります。包括的ディープフィードフォワードネットワークは、多層MLPに加えて 魅力的にするためのいくつかの手法 にすぎません。
一部の著作物は「DNN」を使用してすべてのディープラーニングアーキテクチャをカバーしていますが、慣例により「DNN」はディープフィードフォワードネットワークとも呼ばれるディープフォワード伝播ネットワークを使用するアーキテクチャを指すために使用されます
深層学習モデルの最も重要な例は、深遠なネットフィードフォワードまたは多層パーセプトロン(MLP)です。 MLPは、いくつかの入力値のセットを出力値にマップする単なる数学関数です。関数は、多くの単純な関数の合成によって形成されます。異なる数学関数の各アプリケーションを関連付けて、入力の新しい表現を提供できます。
したがって、この推定量がDNNClassifierと呼ばれることは理にかなっています
私のアドバイスは この本はここ を読むことです。