1つの隠れ層(1024ノード)でニューラルネットワークモデルを構築しようとしています。隠されたレイヤーはreluユニットにすぎません。また、128のバッチで入力データを処理しています。
入力はサイズ28 * 28の画像です。次のコードでは、行にエラーが表示されます
_, c = sess.run([optimizer, loss], feed_dict={x: batch_x, y: batch_y})
Error: TypeError: Cannot interpret feed_dict key as Tensor: Tensor Tensor("Placeholder_64:0", shape=(128, 784), dtype=float32) is not an element of this graph.
ここに私が書いたコードがあります
#Initialize
batch_size = 128
layer1_input = 28 * 28
hidden_layer1 = 1024
num_labels = 10
num_steps = 3001
#Create neural network model
def create_model(inp, w, b):
layer1 = tf.add(tf.matmul(inp, w['w1']), b['b1'])
layer1 = tf.nn.relu(layer1)
layer2 = tf.matmul(layer1, w['w2']) + b['b2']
return layer2
#Initialize variables
x = tf.placeholder(tf.float32, shape=(batch_size, layer1_input))
y = tf.placeholder(tf.float32, shape=(batch_size, num_labels))
w = {
'w1': tf.Variable(tf.random_normal([layer1_input, hidden_layer1])),
'w2': tf.Variable(tf.random_normal([hidden_layer1, num_labels]))
}
b = {
'b1': tf.Variable(tf.zeros([hidden_layer1])),
'b2': tf.Variable(tf.zeros([num_labels]))
}
init = tf.initialize_all_variables()
train_prediction = tf.nn.softmax(model)
tf_valid_dataset = tf.constant(valid_dataset)
tf_test_dataset = tf.constant(test_dataset)
model = create_model(x, w, b)
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(model, y))
optimizer = tf.train.GradientDescentOptimizer(0.5).minimize(loss)
#Process
with tf.Session(graph=graph1) as sess:
tf.initialize_all_variables().run()
total_batch = int(train_dataset.shape[0] / batch_size)
for Epoch in range(num_steps):
loss = 0
for i in range(total_batch):
batch_x, batch_y = train_dataset[Epoch * batch_size:(Epoch+1) * batch_size, :], train_labels[Epoch * batch_size:(Epoch+1) * batch_size,:]
_, c = sess.run([optimizer, loss], feed_dict={x: batch_x, y: batch_y})
loss = loss + c
loss = loss / total_batch
if Epoch % 500 == 0:
print ("Epoch :", Epoch, ". cost = {:.9f}".format(avg_cost))
print("Minibatch accuracy: %.1f%%" % accuracy(predictions, batch_labels))
valid_prediction = tf.run(tf_valid_dataset, {x: tf_valid_dataset})
print("Validation accuracy: %.1f%%" % accuracy(valid_prediction.eval(), valid_labels))
test_prediction = tf.run(tf_test_dataset, {x: tf_test_dataset})
print("TEST accuracy: %.1f%%" % accuracy(test_prediction.eval(), test_labels))
変数xはmodelと同じグラフにはありません。これらすべてを同じグラフスコープで定義してください。例えば、
# define a graph
graph1 = tf.Graph()
with graph1.as_default():
# placeholder
x = tf.placeholder(...)
y = tf.placeholder(...)
# create model
model = create(x, w, b)
with tf.Session(graph=graph1) as sess:
# initialize all the variables
sess.run(init)
# then feed_dict
# ......
これは私のために働いた
from keras import backend as K
データを予測した後、コードのこの部分を挿入し、モデルを再度ロードしました。
K.clear_session()
私は本番サーバーでこの問題に直面しましたが、私のPCではうまく動いていました
...........
from keras import backend as K
#Before prediction
K.clear_session()
#After prediction
K.clear_session()
Django server、単にrunserver with --nothreading
例えば:
python manage.py runserver --nothreading
エラーメッセージTypeError: Cannot interpret feed_dict key as Tensor: Tensor Tensor("...", dtype=dtype) is not an element of this graph
は、with
ステートメントのスコープ外でセッションを実行した場合にも発生します。考慮してください:
with tf.Session() as sess:
sess.run(logits, feed_dict=feed_dict)
sess.run(logits, feed_dict=feed_dict)
logits
およびfeed_dict
は適切に定義され、最初のsess.run
コマンドは正常に実行されますが、2番目のコマンドは上記のエラーを発生させます。
私の場合、CNNを複数回呼び出しているときにループを使用していました。次のようにして問題を修正しました。
# Declare this as global:
global graph
graph = tf.get_default_graph()
# Then just before you call in your model, use this
with graph.as_default():
# call you models here
注:私の場合も、アプリは初めて正常に動作し、その後上記のエラーが発生しました。上記の修正プログラムを使用して問題を解決しました。
お役に立てば幸いです。