web-dev-qa-db-ja.com

RuntimeError:CUDAデバイス上のオブジェクトを逆シリアル化しようとしています

GPUではなくマシンのCPUでコードを実行しようとしているときにRunTimeErrorが発生します。コードは元々このGitHubプロジェクトからのものです IBD:視覚的説明のための解釈可能な基礎分解 。これは研究プロジェクト用です。 CUDAをfalseにしてみて、このWebサイトで他のソリューションを調べました。

GPU = False               # running on GPU is highly suggested
CLEAN = False             # set to "True" if you want to clean the temporary large files after generating result
APP = "classification"    # Do not change! mode choide: "classification", "imagecap", "vqa". Currently "imagecap" and "vqa" are not supported.
CATAGORIES = ["object", "part"]   # Do not change! concept categories that are chosen to detect: "object", "part", "scene", "material", "texture", "color"

CAM_THRESHOLD = 0.5                 # the threshold used for CAM visualization
FONT_PATH = "components/font.ttc"   # font file path
FONT_SIZE = 26                      # font size
SEG_RESOLUTION = 7                  # the resolution of cam map
BASIS_NUM = 7                       # In decomposition, this is to decide how many concepts are used to interpret the weight vector of a class.

ここにエラーがあります:

Traceback (most recent call last):
  File "test.py", line 22, in <module>
    model = loadmodel()
  File "/home/joshuayun/Desktop/IBD/loader/model_loader.py", line 48, in loadmodel
    checkpoint = torch.load(settings.MODEL_FILE)
  File "/home/joshuayun/.local/lib/python3.6/site-packages/torch/serialization.py", line 387, in load
    return _load(f, map_location, pickle_module, **pickle_load_args)
  File "/home/joshuayun/.local/lib/python3.6/site-packages/torch/serialization.py", line 574, in _load
    result = unpickler.load()
  File "/home/joshuayun/.local/lib/python3.6/site-packages/torch/serialization.py", line 537, in persistent_load
    deserialized_objects[root_key] = restore_location(obj, location)
  File "/home/joshuayun/.local/lib/python3.6/site-packages/torch/serialization.py", line 119, in default_restore_location
    result = fn(storage, location)
  File "/home/joshuayun/.local/lib/python3.6/site-packages/torch/serialization.py", line 95, in _cuda_deserialize
    device = validate_cuda_device(location)
  File "/home/joshuayun/.local/lib/python3.6/site-packages/torch/serialization.py", line 79, in validate_cuda_device
    raise RuntimeError('Attempting to deserialize object on a CUDA '
RuntimeError: Attempting to deserialize object on a CUDA device but 
  torch.cuda.is_available() is False. If you are running on a CPU-only machine, 
  please use torch.load with map_location='cpu' to map your storages to the CPU.
4
Joshua

Map_location引数をtorch.loadに使用すると、ロード時にTensorの場所を再マッピングできます。

次のリポジトリのファイル「test.py」で、model = loadmodel()は、model_loader.pyファイルを呼び出してtorch.load()でモデルをロードします。

これはGPU0からのストレージのみをマップしますが、map_locationを追加します。

torch.load(settings.MODEL_FILE, map_location={'cuda:0': 'cpu'})

Model_loader.pyファイルで、torch.load()関数が呼び出される場所にmap_location = {'cuda:0': 'cpu'}を追加します。

1

問題のヒントを述べると、非cudaマシンでcuda-modelを使用しようとしていることがわかります。エラーメッセージの詳細に注意してください-please use torch.load with map_location='cpu' to map your storages to the CPU。 CPUのみのマシンに事前にトレーニングされたモデルを(チェックポイントから)ロードしようとすると、同様の問題が発生しました。モデルはcudaマシンでトレーニングされたため、適切にロードできませんでした。 map_location='cpu'引数をloadメソッドに追加すると、すべてが機能しました。

0
stan0