私はCNNで二項分類モデルを訓練しました、そしてここに私のコードがあります
model = Sequential()
model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1],
border_mode='valid',
input_shape=input_shape))
model.add(Activation('relu'))
model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1]))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=pool_size))
# (16, 16, 32)
model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1]))
model.add(Activation('relu'))
model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1]))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=pool_size))
# (8, 8, 64) = (2048)
model.add(Flatten())
model.add(Dense(1024))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(2)) # define a binary classification problem
model.add(Activation('softmax'))
model.compile(loss='categorical_crossentropy',
optimizer='adadelta',
metrics=['accuracy'])
model.fit(x_train, y_train,
batch_size=batch_size,
nb_Epoch=nb_Epoch,
verbose=1,
validation_data=(x_test, y_test))
そしてここでは、TensorFlowのように各レイヤーの出力を取得したいのですが、どうすればいいですか。
次のようにして、どのレイヤの出力でも簡単に取得できます。model.layers[index].output
すべてのレイヤーに対してこれを使います。
from keras import backend as K
inp = model.input # input placeholder
outputs = [layer.output for layer in model.layers] # all layer outputs
functors = [K.function([inp, K.learning_phase()], [out]) for out in outputs] # evaluation functions
# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = [func([test, 1.]) for func in functors]
print layer_outs
注:ドロップアウトをシミュレートするには、learning_phase
の1.
としてlayer_outs
を使用します。それ以外の場合は0.
を使用します。
編集: (コメントに基づく)
K.function
は、入力が与えられたときにシンボリックグラフから出力を取得するために後で使用されるano/ tensorflowテンソル関数を作成します。
Dropout/Batchnomalizationのような多くのKerasレイヤーがトレーニングやテスト時間の間に振る舞いを変えるためにそれに依存しているのでK.learning_phase()
が入力として必要とされます。
それで、あなたがあなたのコードでドロップアウトレイヤを削除するならば、あなたは単に使うことができます:
from keras import backend as K
inp = model.input # input placeholder
outputs = [layer.output for layer in model.layers] # all layer outputs
functors = [K.function([inp], [out]) for out in outputs] # evaluation functions
# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = [func([test]) for func in functors]
print layer_outs
編集2:より最適化
先の答えは、各関数評価に関してデータがCPU→GPUメモリに転送され、テンソルの計算が下位層に対して行われる必要があるという点で最適化されているわけではないことに気付きました。
代わりに、これはより良い方法です。複数の関数は必要ありませんが、単一の関数ですべての出力のリストが得られるからです。
from keras import backend as K
inp = model.input # input placeholder
outputs = [layer.output for layer in model.layers] # all layer outputs
functor = K.function([inp, K.learning_phase()], outputs ) # evaluation function
# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = functor([test, 1.])
print layer_outs
https://keras.io/getting-started/faq/#how-can-i-obtain-the-output-of-an-intermediate-layer から
簡単な方法の1つは、興味のあるレイヤーを出力する新しいモデルを作成することです。
from keras.models import Model
model = ... # include here your original model
layer_name = 'my_layer'
intermediate_layer_model = Model(inputs=model.input,
outputs=model.get_layer(layer_name).output)
intermediate_output = intermediate_layer_model.predict(data)
あるいは、特定の入力に対して特定のレイヤーの出力を返すKeras関数を作成することができます。次に例を示します。
from keras import backend as K
# with a Sequential model
get_3rd_layer_output = K.function([model.layers[0].input],
[model.layers[3].output])
layer_output = get_3rd_layer_output([x])[0]
私は自分自身のためにこの関数を(Jupyterで)書きました、そしてそれは indraforyou の答えに触発されました。それは自動的にすべてのレイヤ出力をプロットします。あなたの画像は1が1チャンネルを表す(x、y、1)の形をしていなければなりません。あなたはただplot_layer_outputs(...)を呼ぶために呼び出すだけです。
%matplotlib inline
import matplotlib.pyplot as plt
from keras import backend as K
def get_layer_outputs():
test_image = YOUR IMAGE GOES HERE!!!
outputs = [layer.output for layer in model.layers] # all layer outputs
comp_graph = [K.function([model.input]+ [K.learning_phase()], [output]) for output in outputs] # evaluation functions
# Testing
layer_outputs_list = [op([test_image, 1.]) for op in comp_graph]
layer_outputs = []
for layer_output in layer_outputs_list:
print(layer_output[0][0].shape, end='\n-------------------\n')
layer_outputs.append(layer_output[0][0])
return layer_outputs
def plot_layer_outputs(layer_number):
layer_outputs = get_layer_outputs()
x_max = layer_outputs[layer_number].shape[0]
y_max = layer_outputs[layer_number].shape[1]
n = layer_outputs[layer_number].shape[2]
L = []
for i in range(n):
L.append(np.zeros((x_max, y_max)))
for i in range(n):
for x in range(x_max):
for y in range(y_max):
L[i][x][y] = layer_outputs[layer_number][x][y][i]
for img in L:
plt.figure()
plt.imshow(img, interpolation='nearest')
以下は私にとって非常に簡単に見えます:
model.layers[idx].output
上記はテンソルオブジェクトなので、テンソルオブジェクトに適用できる操作を使用して変更できます。
たとえば、形状model.layers[idx].output.get_shape()
を取得するには
idx
はレイヤーのインデックスで、model.summary()
から見つけることができます。
このスレッドのすべての適切な回答に基づいて、各レイヤーの出力を取得するライブラリを作成しました。すべての複雑さを抽象化し、可能な限りユーザーフレンドリーになるように設計されています。
https://github.com/philipperemy/keract
ほとんどすべてのEdgeケースを処理します
それが役に立てば幸い!
そう、他の答えは非常に完成していますが、形を「得る」のではなく、「見る」のが基本的な方法です。
model.summary()
を実行するだけです。すべてのレイヤーとその出力形状が印刷されます。 「なし」の値は可変サイズを示し、最初のサイズはバッチサイズになります。
から: https://github.com/philipperemy/keras-visualize-activations/blob/master/read_activations.py
import keras.backend as K
def get_activations(model, model_inputs, print_shape_only=False, layer_name=None):
print('----- activations -----')
activations = []
inp = model.input
model_multi_inputs_cond = True
if not isinstance(inp, list):
# only one input! let's wrap it in a list.
inp = [inp]
model_multi_inputs_cond = False
outputs = [layer.output for layer in model.layers if
layer.name == layer_name or layer_name is None] # all layer outputs
funcs = [K.function(inp + [K.learning_phase()], [out]) for out in outputs] # evaluation functions
if model_multi_inputs_cond:
list_inputs = []
list_inputs.extend(model_inputs)
list_inputs.append(0.)
else:
list_inputs = [model_inputs, 0.]
# Learning phase. 0 = Test mode (no dropout or batch normalization)
# layer_outputs = [func([model_inputs, 0.])[0] for func in funcs]
layer_outputs = [func(list_inputs)[0] for func in funcs]
for layer_activations in layer_outputs:
activations.append(layer_activations)
if print_shape_only:
print(layer_activations.shape)
else:
print(layer_activations)
return activations
@ mathtickのコメントに記載されている問題を修正するために、@ indraforyouの回答にこれをコメントとして追加することを望んだ(しかし十分に高い担当者はいない)。 InvalidArgumentError: input_X:Y is both fed and fetched.
例外を回避するには、単にoutputs = [layer.output for layer in model.layers]
という行をoutputs = [layer.output for layer in model.layers][1:]
に置き換えます。
indraforyouの最小作業例を適応させる:
from keras import backend as K
inp = model.input # input placeholder
outputs = [layer.output for layer in model.layers][1:] # all layer outputs except first (input) layer
functor = K.function([inp, K.learning_phase()], outputs ) # evaluation function
# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = functor([test, 1.])
print layer_outs
pS outputs = [layer.output for layer in model.layers[1:]]
のようなことを試みる私の試みはうまくいきませんでした。
あなたが持っていると仮定:
1- Kerasは事前にトレーニング済みmodel
。
2-画像または画像のセットとしてx
を入力します。画像の解像度は、入力レイヤーの寸法と互換性がある必要があります。たとえば、3チャネル(RGB)画像の場合は80 * 80 *です。
3-アクティベーションを取得するための出力の名前layer
。たとえば、「flatten_2」レイヤー。これはlayer_names
変数に含める必要があり、指定されたmodel
のレイヤーの名前を表します。
4- batch_size
はオプションの引数です。
次に、簡単にget_activation
関数を使用して、与えられた入力layer
および事前に訓練されたx
の出力model
のアクティベーションを取得できます。
import six
import numpy as np
import keras.backend as k
from numpy import float32
def get_activations(x, model, layer, batch_size=128):
"""
Return the output of the specified layer for input `x`. `layer` is specified by layer index (between 0 and
`nb_layers - 1`) or by name. The number of layers can be determined by counting the results returned by
calling `layer_names`.
:param x: Input for computing the activations.
:type x: `np.ndarray`. Example: x.shape = (80, 80, 3)
:param model: pre-trained Keras model. Including weights.
:type model: keras.engine.sequential.Sequential. Example: model.input_shape = (None, 80, 80, 3)
:param layer: Layer for computing the activations
:type layer: `int` or `str`. Example: layer = 'flatten_2'
:param batch_size: Size of batches.
:type batch_size: `int`
:return: The output of `layer`, where the first dimension is the batch size corresponding to `x`.
:rtype: `np.ndarray`. Example: activations.shape = (1, 2000)
"""
layer_names = [layer.name for layer in model.layers]
if isinstance(layer, six.string_types):
if layer not in layer_names:
raise ValueError('Layer name %s is not part of the graph.' % layer)
layer_name = layer
Elif isinstance(layer, int):
if layer < 0 or layer >= len(layer_names):
raise ValueError('Layer index %d is outside of range (0 to %d included).'
% (layer, len(layer_names) - 1))
layer_name = layer_names[layer]
else:
raise TypeError('Layer must be of type `str` or `int`.')
layer_output = model.get_layer(layer_name).output
layer_input = model.input
output_func = k.function([layer_input], [layer_output])
# Apply preprocessing
if x.shape == k.int_shape(model.input)[1:]:
x_preproc = np.expand_dims(x, 0)
else:
x_preproc = x
assert len(x_preproc.shape) == 4
# Determine shape of expected output and prepare array
output_shape = output_func([x_preproc[0][None, ...]])[0].shape
activations = np.zeros((x_preproc.shape[0],) + output_shape[1:], dtype=float32)
# Get activations with batching
for batch_index in range(int(np.ceil(x_preproc.shape[0] / float(batch_size)))):
begin, end = batch_index * batch_size, min((batch_index + 1) * batch_size, x_preproc.shape[0])
activations[begin:end] = output_func([x_preproc[begin:end]])[0]
return activations