Keras 2.0.9へのアップグレード後、multi_gpu_model
ユーティリティを使用していますが、を使用してモデルまたは最適な重みを保存できません。
model.save('path')
私が得るエラーは
TypeError:モジュールオブジェクトをピクルすることができません
モデルオブジェクトへのアクセスに問題があると思われます。この問題を回避する方法はありますか?
正直なところ、これに対する最も簡単なアプローチは、実際にマルチGPU並列モデルを使用して調べることです。
parallel_model.summary()
(並列モデルは、multi_gpu関数を適用した後のモデルです)。これは、実際のモデルを明確に強調しています(最後から2番目のレイヤーだと思います-私は現在コンピューターの前にいません)。次に、このレイヤーの名前を使用してモデルを保存できます。
model = parallel_model.get_layer('sequential_1)
多くの場合、sequential_1と呼ばれますが、公開されたアーキテクチャを使用している場合は、「googlenet」または「alexnet」の場合があります。概要からレイヤーの名前が表示されます。
次に、保存するのは簡単です
model.save()
マキシムのアプローチは機能しますが、それはやり過ぎだと思います。
Rem:モデルと並列モデルの両方をコンパイルする必要があります。
保存中に失敗しないパッチが適用されたバージョンは次のとおりです。
from keras.layers import Lambda, concatenate
from keras import Model
import tensorflow as tf
def multi_gpu_model(model, gpus):
if isinstance(gpus, (list, Tuple)):
num_gpus = len(gpus)
target_gpu_ids = gpus
else:
num_gpus = gpus
target_gpu_ids = range(num_gpus)
def get_slice(data, i, parts):
shape = tf.shape(data)
batch_size = shape[:1]
input_shape = shape[1:]
step = batch_size // parts
if i == num_gpus - 1:
size = batch_size - step * i
else:
size = step
size = tf.concat([size, input_shape], axis=0)
stride = tf.concat([step, input_shape * 0], axis=0)
start = stride * i
return tf.slice(data, start, size)
all_outputs = []
for i in range(len(model.outputs)):
all_outputs.append([])
# Place a copy of the model on each GPU,
# each getting a slice of the inputs.
for i, gpu_id in enumerate(target_gpu_ids):
with tf.device('/gpu:%d' % gpu_id):
with tf.name_scope('replica_%d' % gpu_id):
inputs = []
# Retrieve a slice of the input.
for x in model.inputs:
input_shape = Tuple(x.get_shape().as_list())[1:]
slice_i = Lambda(get_slice,
output_shape=input_shape,
arguments={'i': i,
'parts': num_gpus})(x)
inputs.append(slice_i)
# Apply model on slice
# (creating a model replica on the target device).
outputs = model(inputs)
if not isinstance(outputs, list):
outputs = [outputs]
# Save the outputs for merging back together later.
for o in range(len(outputs)):
all_outputs[o].append(outputs[o])
# Merge outputs on CPU.
with tf.device('/cpu:0'):
merged = []
for name, outputs in Zip(model.output_names, all_outputs):
merged.append(concatenate(outputs,
axis=0, name=name))
return Model(model.inputs, merged)
バグがkerasで修正されるまで、このmulti_gpu_model
関数を使用できます。また、モデルをロードするときは、tensorflowモジュールオブジェクトを提供することが重要です。
model = load_model('multi_gpu_model.h5', {'tf': tf})
問題は、import tensorflow
の途中にあるmulti_gpu_model
行にあります。
def multi_gpu_model(model, gpus):
...
import tensorflow as tf
...
これにより、get_slice
ラムダ関数のクロージャが作成されます。これには、gpus(問題ありません)とtensorflowモジュール(問題ありません)の数が含まれます。モデルの保存は、get_slice
を呼び出すレイヤーを含むすべてのレイヤーをシリアル化しようとしますが、tf
がクロージャー内にあるために失敗します。
解決策は、インポートをmulti_gpu_model
から移動して、tf
がグローバルオブジェクトになるようにすることですが、get_slice
が機能するためには引き続き必要です。これにより保存の問題は修正されますが、ロード時にtf
を明示的に指定する必要があります。
これは、multi_gpu_modelウェイトを通常のモデルウェイトにロードすることで少し回避する必要があるものです。例えば.
#1, instantiate your base model on a cpu
with tf.device("/cpu:0"):
model = create_model()
#2, put your model to multiple gpus, say 2
multi_model = multi_gpu_model(model, 2)
#3, compile both models
model.compile(loss=your_loss, optimizer=your_optimizer(lr))
multi_model.compile(loss=your_loss, optimizer=your_optimizer(lr))
#4, train the multi gpu model
# multi_model.fit() or multi_model.fit_generator()
#5, save weights
model.set_weights(multi_model.get_weights())
model.save(filepath=filepath)
`