with tf.device("/gpu:0")
で使用されるはずだったと思いますが、どこに配置すればよいですか?それはそうではないと思います:
_with tf.device("/gpu:0"):
tf.app.run()
_
それで、それを_tf.app
_のmain()
関数、または推定器に使用するモデル関数に配置する必要がありますか?
編集:これが役立つ場合、これは私のmain()
関数です:
_def main(unused_argv):
"""Code to load training folds data pickle or generate one if not present"""
# Create the Estimator
mnist_classifier = tf.estimator.Estimator(
model_fn=cnn_model_fn2, model_dir="F:/python_machine_learning_codes/tmp/custom_age_adience_1")
# Set up logging for predictions
# Log the values in the "Softmax" tensor with label "probabilities"
tensors_to_log = {"probabilities": "softmax_tensor"}
logging_hook = tf.train.LoggingTensorHook(
tensors=tensors_to_log, every_n_iter=100)
# Train the model
train_input_fn = tf.estimator.inputs.numpy_input_fn(
x={"x": train_data},
y=train_labels,
batch_size=64,
num_epochs=None,
shuffle=True)
mnist_classifier.train(
input_fn=train_input_fn,
steps=500,
hooks=[logging_hook])
# Evaluate the model and print results
"""Code to load eval fold data pickle or generate one if not present"""
eval_logs = {"probabilities": "softmax_tensor"}
eval_hook = tf.train.LoggingTensorHook(
tensors=eval_logs, every_n_iter=100)
eval_input_fn = tf.estimator.inputs.numpy_input_fn(
x={"x": eval_data},
y=eval_labels,
num_epochs=1,
shuffle=False)
eval_results = mnist_classifier.evaluate(input_fn=eval_input_fn, hooks=[eval_hook])
_
ご覧のとおり、ここにはセッションの明示的な宣言はありません。そのため、with tf.device("/gpu:0")
を正確にどこに配置すればよいですか?
モデル関数の最初に置くことができます。つまり、モデルを定義するときに、次のように記述する必要があります。
def cnn_model_fn2(...):
with tf.device('/gpu:0'):
...
ただし、テンソルフローがモデルのgpuを自動的に使用することを期待します。それが適切に検出されているかどうかを確認したい場合があります。
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
estimatorでは、次のようなステートメントはありません
sess = tf.Session(config = xxxxxxxxxxxxx)
どちらのステートメントも
sess.run()
そのため...残念ながら、テンソルフローウェブには完全なドキュメントがありません。 RunConfigのさまざまなオプションを試しています
# Create a tf.estimator.RunConfig to ensure the model is run on CPU, which
# trains faster than GPU for this model.
run_config = tf.estimator.RunConfig().replace(
session_config=tf.ConfigProto(log_device_placement=True,
device_count={'GPU': 0}))
これで作業してみてください...実際には私はあなたの仕事のようなもので作業しているので、進歩があったらここに投稿します。
ここを見てください: https://github.com/tensorflow/models/blob/master/official/wide_deep/wide_deep.py この例では、上記のコードを.replaceステートメントで使用していますモデルがCPUで実行されていることを確認します。
tf.contrib.distribute
を使用してデバイス配置戦略を指定できるかどうか疑問に思いました。
def main(unused_argv):
"""Code to load training folds data pickle or generate one if not present"""
strategy = tf.contrib.distribute.OneDeviceStrategy(device='/gpu:0')
config = tf.estimator.RunConfig(train_distribute=strategy)
# Create the Estimator
mnist_classifier = tf.estimator.Estimator(
model_fn=cnn_model_fn2,
config=config,
model_dir="F:/python_machine_learning_codes/tmp/custom_age_adience_1")
......