特定のPytorchインスタンスで使用できるようにしたいGPUメモリの量の最大値を強制する方法はありますか?たとえば、GPUで12Gbを使用できる場合がありますが、特定のプロセスに最大4Gbを割り当てたいと思います。
すべてのCPUメモリをブロックするテンソルフローとは対照的に、Pytorchは「必要なだけ」を使用します。ただし、次のことができます。
プログラム内でこれを実行するには、次のことを試してください。
import os
os.environ["CUDA_VISIBLE_DEVICES"]="0"