モデルを複数のGPUで実行し、パラメーターを共有しますが、データのバッチは異なります。
model.fit()
でそのようなことをすることはできますか?他に選択肢はありますか?
Kerasは(v2.0.9以降)keras.utils.multi_gpu_model
を使用して、複数のGPU間でデバイスの並列処理をサポートするようになりました。
現在、Tensorflowバックエンドのみをサポートしています。
ここでの良い例(ドキュメント): https://keras.io/getting-started/faq/#how-can-i-run-a-keras-model-on-multiple-gpus またカバーされていますここ: https://datascience.stackexchange.com/a/25737
make_parallel関数を次の場所で使用してみてください: https://github.com/kuza55/keras-extras/blob/master/utils/multi_gpu.py (テンソルフローバックエンドでのみ機能します)。