私は通り抜けています この強化学習チュートリアル そして、それはこれまで本当に素晴らしいですが、誰かが何を説明してくれますか
newQ = model.predict(new_state.reshape(1,64), batch_size=1)
そして
model.fit(X_train, y_train, batch_size=batchSize, nb_Epoch=1, verbose=1)
平均?
引数bach_size
、nb_Epoch
、verbose
は何をするのと同じですか?私はニューラルネットワークを知っているので、それについて説明することは役に立ちます。
また、これらの関数のドキュメントを見つけることができるリンクを私に送ることもできます。
まず最初に、 documentation が見つからないことに驚いていますが、検索中に運が悪かっただけだと思います。
ドキュメントは _model.fit
_ について述べています:
fit(self, x, y, batch_size=32, nb_Epoch=10, verbose=1, callbacks=[], validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None)
- _
batch_size
_:整数。勾配更新ごとのサンプル数。- _
nb_Epoch
_:整数。トレーニングデータ配列を反復する回数。verbose
:0、1、または2。詳細モード。 0 =サイレント、1 =詳細、2 =エポックごとに1つのログ行。
_batch_size
_の場合の_model.predict
_パラメータは、各予測ステップで使用されるサンプルの数です。したがって、_model.predict
_を1回呼び出すと、_batch_size
_の数のデータサンプルが消費されます。これは、大きな行列をすばやく処理できるデバイス(GPUなど)に役立ちます。