この問題が発生したときに、最後のレイヤーでいくつかのテンソルフロー関数(reduce_sumおよびl2_normalize)を使用してKerasでモデルを構築しています。ソリューションを検索しましたが、すべてが「ケラステンソル」に関連しています。
ここに私のコードがあります:
import tensorflow as tf;
from tensorflow.python.keras import backend as K
vgg16_model = VGG16(weights = 'imagenet', include_top = False, input_shape = input_shape);
fire8 = extract_layer_from_model(vgg16_model, layer_name = 'block4_pool');
pool8 = MaxPooling2D((3,3), strides = (2,2), name = 'pool8')(fire8.output);
fc1 = Conv2D(64, (6,6), strides= (1, 1), padding = 'same', name = 'fc1')(pool8);
fc1 = Dropout(rate = 0.5)(fc1);
fc2 = Conv2D(3, (1, 1), strides = (1, 1), padding = 'same', name = 'fc2')(fc1);
fc2 = Activation('relu')(fc2);
fc2 = Conv2D(3, (15, 15), padding = 'valid', name = 'fc_pooling')(fc2);
fc2_norm = K.l2_normalize(fc2, axis = 3);
est = tf.reduce_sum(fc2_norm, axis = (1, 2));
est = K.l2_normalize(est);
FC_model = Model(inputs = vgg16_model.input, outputs = est);
そして、エラー:
ValueError:モデルへの出力テンソルは、TensorFlow
Layer
(したがって、過去のレイヤーメタデータを保持)の出力でなければなりません。見つかった:Tensor( "l2_normalize_3:0"、shape =(?, 3)、dtype = float32)
Fc2レイヤーをこれらの関数に渡さなくても、モデルは正常に機能することに気付きました。
FC_model = Model(inputs = vgg16_model.input, outputs = fc2);
誰かがこの問題とそれを修正する方法についての提案を私に説明してもらえますか?
問題を解決するための回避策を見つけました。同じ問題が発生した場合は、Lambdaレイヤーを使用してテンソルフロー操作をラップできます。これは私がやったことです。
from tensorflow.python.keras.layers import Lambda;
def norm(fc2):
fc2_norm = K.l2_normalize(fc2, axis = 3);
illum_est = tf.reduce_sum(fc2_norm, axis = (1, 2));
illum_est = K.l2_normalize(illum_est);
return illum_est;
illum_est = Lambda(norm)(fc2);