0.18ユーザーマニュアルを学ぶscikitで失われます( http://scikit-learn.org/dev/modules/generated/sklearn.neural_network.MLPClassifier.html#sklearn.neural_network.MLPClassifier ):
hidden_layer_sizes : Tuple, length = n_layers - 2, default (100,)
The ith element represents the number of neurons in the ith hidden layer.
モデルで1つの隠しレイヤーと7つの隠しユニットのみを探している場合、このように配置する必要がありますか?ありがとう!
hidden_layer_sizes=(7, 1)
hidden_layer_sizes=(7,)
7つの非表示ユニットを持つ1つの非表示レイヤーのみが必要な場合。
length = n_layers - 2
は、1つの入力レイヤーと1つの出力レイヤーがあるためです。
私は答えるのが遅く、まだ共有していることを知っています...
文書内
hidden_layer_sizes:タプル、長さ= n_layers-2、デフォルト(100、)
意味:hidden_layer_sizesはサイズのタプルです(n_layers -2)
n_layersは、アーキテクチャごとに必要なレイヤーがないことを意味します。
2つのレイヤー(入力と出力)は非表示レイヤーの一部ではないため、n_layersから値2が減算され、カウントに属しません。
default(100、)は、hidden_layer_sizesに値が指定されていない場合、デフォルトアーキテクチャに1つの入力レイヤー、100ユニットの1つの非表示レイヤー、1つの出力レイヤーがあることを意味します。
ライン
I番目の要素は、i番目の隠れ層のニューロンの数を表します。
tupleの各エントリが対応する非表示レイヤーに属することを意味します。
例:
アーキテクチャ56:25:11:7:5:3:1の場合、入力56と1の出力隠しレイヤーは(25:11:7:5:3)になります。 Tuple hidden_layer_sizes =(25,11,7,5,3、)
アーキテクチャ3:45:2:11:2の場合、入力3および2の出力隠しレイヤーは(45:2:11)になります。タプルhidden_layer_sizes =(45,2,11、)
これがあなたの質問に完全に答えることを願っています..