過去3日間のトレーニングを行うための簡単なCNNを取得しようとしています。
最初に、ディレクトリツリーからイメージを読み取り、バッチを準備する入力パイプライン/キュー構成をセットアップしました。
私はこれでこのコードを手に入れました link 。だから、私は今train_image_batchとtrain_label_batchを持っています私のCNN。
train_image_batch, train_label_batch = tf.train.batch(
[train_image, train_label],
batch_size=BATCH_SIZE
# ,num_threads=1
)
そして、私はその方法を理解することができません。この link で指定されたCNNのコードを使用しています。
# Input Layer
input_layer = tf.reshape(train_image_batch, [-1, IMAGE_HEIGHT, IMAGE_WIDTH, NUM_CHANNELS])
# Convolutional Layer #1
conv1 = new_conv_layer(input_layer, NUM_CHANNELS, 5, 32, 2)
# Pooling Layer #1
pool1 = new_pooling_layer(conv1, 2, 2)
印刷時のinput_layerはこれを示しています
Tensor( "Reshape:0"、shape =(5、120、120、3)、dtype = uint8)
次の行はTypeErrorでクラッシュします。 conv1 = new_conv_layer(...)。 new_conv_layer関数の本体を以下に示します
def new_conv_layer(input, # The previous layer.
num_input_channels, # Num. channels in prev. layer.
filter_size, # Width and height of each filter.
num_filters, # Number of filters.
stride):
# Shape of the filter-weights for the convolution.
# This format is determined by the TensorFlow API.
shape = [filter_size, filter_size, num_input_channels, num_filters]
# Create new weights aka. filters with the given shape.
weights = tf.Variable(tf.truncated_normal(shape, stddev=0.05))
# Create new biases, one for each filter.
biases = tf.Variable(tf.constant(0.05, shape=[num_filters]))
# Create the TensorFlow operation for convolution.
# Note the strides are set to 1 in all dimensions.
# The first and last stride must always be 1,
# because the first is for the image-number and
# the last is for the input-channel.
# But e.g. strides=[1, 2, 2, 1] would mean that the filter
# is moved 2 pixels across the x- and y-axis of the image.
# The padding is set to 'SAME' which means the input image
# is padded with zeroes so the size of the output is the same.
layer = tf.nn.conv2d(input=input,
filter=weights,
strides=[1, stride, stride, 1],
padding='SAME')
# Add the biases to the results of the convolution.
# A bias-value is added to each filter-channel.
layer += biases
# Rectified Linear Unit (ReLU).
# It calculates max(x, 0) for each input pixel x.
# This adds some non-linearity to the formula and allows us
# to learn more complicated functions.
layer = tf.nn.relu(layer)
# Note that ReLU is normally executed before the pooling,
# but since relu(max_pool(x)) == max_pool(relu(x)) we can
# save 75% of the relu-operations by max-pooling first.
# We return both the resulting layer and the filter-weights
# because we will plot the weights later.
return layer, weights
正確に、このエラーでtf.nn.conv2dでクラッシュします
TypeError:パラメーター 'input'に渡された値は、許可された値のリストにないDataType uint8を持っています:float16、float32
入力パイプラインからの画像は「uint8」型です。「float32」に型キャストする必要があります。画像jpegデコーダの後にこれを行うことができます。
image = tf.image.decode_jpeg(...
image = tf.cast(image, tf.float32)