この記事 に基づいてこのコードを使用してGPUアクセラレーションを確認していますが、確認できるのは速度低下だけです。
import numpy as np
from timeit import default_timer as timer
from numba import vectorize
import sys
if len(sys.argv) != 3:
exit("Usage: " + sys.argv[0] + " [cuda|cpu] N(100000-11500000)")
@vectorize(["float32(float32, float32)"], target=sys.argv[1])
def VectorAdd(a, b):
return a + b
def main():
N = int(sys.argv[2])
A = np.ones(N, dtype=np.float32)
B = np.ones(N, dtype=np.float32)
start = timer()
C = VectorAdd(A, B)
elapsed_time = timer() - start
#print("C[:5] = " + str(C[:5]))
#print("C[-5:] = " + str(C[-5:]))
print("Time: {}".format(elapsed_time))
main()
結果:
$ python speed.py cpu 100000
Time: 0.0001056949986377731
$ python speed.py cuda 100000
Time: 0.11871792199963238
$ python speed.py cpu 11500000
Time: 0.013704434997634962
$ python speed.py cuda 11500000
Time: 0.47120747699955245
numba.cuda.cudadrv.driver.CudaAPIError: Call to cuLaunchKernel results in CUDA_ERROR_INVALID_VALUE
例外が生成されるため、より大きなベクトルを送信することはできません。
nvidia-smi
の出力は次のとおりです。
Fri Dec 8 10:36:19 2017
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.98 Driver Version: 384.98 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Quadro 2000D Off | 00000000:01:00.0 On | N/A |
| 30% 36C P12 N/A / N/A | 184MiB / 959MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 933 G /usr/lib/xorg/Xorg 94MiB |
| 0 985 G /usr/bin/gnome-Shell 86MiB |
+-----------------------------------------------------------------------------+
CPUの詳細
$ lscpu
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 4
On-line CPU(s) list: 0-3
Thread(s) per core: 1
Core(s) per socket: 4
Socket(s): 1
NUMA node(s): 1
Vendor ID: GenuineIntel
CPU family: 6
Model: 58
Model name: Intel(R) Core(TM) i5-3550 CPU @ 3.30GHz
Stepping: 9
CPU MHz: 3300.135
CPU max MHz: 3700.0000
CPU min MHz: 1600.0000
BogoMIPS: 6600.27
Virtualization: VT-x
L1d cache: 32K
L1i cache: 32K
L2 cache: 256K
L3 cache: 6144K
NUMA node0 CPU(s): 0-3
Flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc Arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc cpuid aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm cpuid_fault epb tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms xsaveopt dtherm ida arat pln pts
GPUは、192個のCUDAコアと1GbRAMを備えたNvidiaQuadro2000Dです。
より複雑な操作:
import numpy as np
from timeit import default_timer as timer
from numba import vectorize
import sys
if len(sys.argv) != 3:
exit("Usage: " + sys.argv[0] + " [cuda|cpu] N()")
@vectorize(["float32(float32, float32)"], target=sys.argv[1])
def VectorAdd(a, b):
return a * b
def main():
N = int(sys.argv[2])
A = np.zeros((N, N), dtype='f')
B = np.zeros((N, N), dtype='f')
A[:] = np.random.randn(*A.shape)
B[:] = np.random.randn(*B.shape)
start = timer()
C = VectorAdd(A, B)
elapsed_time = timer() - start
print("Time: {}".format(elapsed_time))
main()
結果:
$ python complex.py cpu 3000
Time: 0.010573603001830634
$ python complex.py cuda 3000
Time: 0.3956961739968392
$ python complex.py cpu 30
Time: 9.693001629784703e-06
$ python complex.py cuda 30
Time: 0.10848476299725007
理由は何ですか?
「GPUの使用方法」を示すために使用されたNvidiaのWebサイトにある例にもかかわらず、プレーンマトリックスの追加は、CPUを使用するよりもGPUを使用するとおそらく遅くなります。主に、データをGPUにコピーするオーバーヘッドが原因です。
単純な数学計算でさえ遅いかもしれません。より重い計算はすでにゲインを示すことができます。結果を記事にまとめました GPU、cuda、およびnumpyによる速度の向上を示しています
一言で言えば、問題はどちらが大きいかでした
CPU時間
または
gPUへのコピー+ GPU時間+ GPUからのコピー
おそらく、配列が小さすぎて操作が単純すぎて、GPUに関連するデータ転送のコストを相殺できません。別の見方をすれば、GPUの場合、処理時間だけでなくメモリ転送時間のタイミングも調整されているため、タイミングが公平ではないということです。
もっと難しい例を試してみてください。最初に要素ごとの大きな行列の乗算、次に行列の乗算などです。
結局、GPUの力は同じデータに対して多くの操作を実行することであるため、データ転送コストを1回だけ支払うことになります。