NumpyをGPU(nvidia GTX 1080 Ti)で使用する場合の基本的な質問がいくつかあります。私はGPUが初めてなので、Numpy/Pythonを高速化するためにGPUを適切に使用していることを確認したいと思います。しばらくインターネットで検索しましたが、質問に答える簡単なチュートリアルは見つかりませんでした。誰かが私にいくつかのポインタを与えることができるなら、私はそれを感謝します:
1)Numpy/PythonはGPUの存在を自動的に検出し、それを利用して行列計算を高速化しますか(例:numpy.multiply、numpy.linalg.invなど)?または、GPUを利用して高速計算を行うための特定の方法でコードがありますか?
2)GPU(nvidia)でNumpy/Pythonを使用するための良いチュートリアル/入門資料を誰かがお勧めできますか?
どうもありがとう!
Numpy/PythonはGPUの存在を自動的に検出し、それを利用して行列計算を高速化しますか(例:numpy.multiply、numpy.linalg.invなど)?
いや.
または、GPUを利用して高速計算を行うための特定の方法でコードがありますか?
はい。 Numba、Theano、PyTorch、またはPyCUDAを検索して、GPUでPythonを加速するためのさまざまなパラダイムを探します。
いいえ、numpyと同様のインターフェースを持つCuPyを使用することもできます。 https://cupy.chainer.org/