web-dev-qa-db-ja.com

cuda

CUDAドライバーAPIとCUDAランタイム

特別な目的の3Dグラフィックス計算のためのCUDAまたはFPGA?

NvidiaのCUDAを使用した圧縮ライブラリ

CUDAアプリは数秒後にタイムアウトして失敗します-これを回避するにはどうすればよいですか?

CとJavaの間でJNIを介してポインターを渡す

Visual Studio 2008で新しいCUDAプロジェクトを開始するにはどうすればよいですか?

CUDA __global__関数内のprintf

VMwareのcudaプログラム

CUDAグリッドディメンション、ブロックディメンション、およびスレッド構成について(簡単な説明)

CUDAカーネル関数から単一の変数を返す方法は?

JavaのGPGPU / CUDA / OpenCLに最適なアプローチは?

Pythonのみを使用してNvidiaのCUDAをプログラムできますか、それともCを学習する必要がありますか?

ハードウェアなしのCUDAプログラミング用GPUエミュレーター

CUDAドライバーバージョンはCUDAランタイムバージョンに対して不十分です

ストリーミングマルチプロセッサ、ブロック、スレッド(CUDA)

CUDAモデル-ワープサイズとは

CUDAは再帰をサポートしていますか?

CUDAハードウェアQuadro 4000 Vとの違い。 GeForce 480

Visual Studio 2010でCUDAアプリを起動するにはどうすればよいですか?

銀行紛争とは何ですか? (Cuda / OpenCLプログラミングを行う)

cudaカーネル内の機能

ブロックごとのスレッド、グリッドごとのブロックを決定するCUDA

NVIDIA対AMD:GPGPUのパフォーマンス

CUDAで2D配列を使用する方法

CUDAでは、メモリの合体​​とは何ですか?

デフォルトの固定メモリとゼロコピーメモリ

CUDAはどのようなものですか?それはなんのためですか?メリットは何ですか?そして、どのように始めるのですか?

CUDA /仮想マシン内のOpenCL /ハイパーバイザー

ユーザーが書いたカーネルの内部を推し進める

共有メモリの割り当て

グリッド、ブロック、スレッドサイズを取得し、非正方行列計算を並列化する方法をCUDA

CUDA:カーネルから__device__関数を呼び出す

CUDAがメモリを固定しているのはなぜですか?

Python GPUプログラミング

グリッドあたりの最大ブロック数:CUDA

行列の乗算でMATLABが高速なのはなぜですか?

CUDAカーネル呼び出し用のVisualStudioIntellisenseのセットアップ

cuda.h、cuda_runtime.h、cuda_runtime_api.hの違い

グラフィックメモリをRAMとして使用するにはどうすればよいですか?

cudaブロックの同期

C#でCUDAをコーディングしますか?

CUDA:合計でいくつの同時スレッドですか?

gccバージョンと互換性のないCUDA

CUDAとクラス

CUDAを使用してGPUがCPUより優れていることを示す最も簡単な例

cudamalloc()の使用。なぜダブルポインターなのですか?

CUDAの__shared__メモリはいつ役に立ちますか?

コマンドプロンプトからのCUDAのコンパイルエラー

Intelの統合グラフィックプロセッサでCUDAを実行できますか?

CUDAを使用するGPUのトップコマンド

cudaカーネル呼び出しは同期または非同期ですか

CUDAのテクスチャメモリ:パフォーマンスを実証するための概念と簡単な例

VisualStudioなしでCUDAをコンパイルする-「パスにコンパイラcl.exeが見つかりません」

CUDAおよびC ++ 11の使用中にエラーが発生しました

Cuda Shared Memory配列変数

CUDAデバイスへのポインターを含む構造体のコピー

CUDAコードをコンパイルしてC ++プロジェクトにリンクするにはどうすればよいですか?

Cudaバージョンを入手するにはどうすればいいですか?

CUDAで可能な最大ブロック数はいくつですか?

CUDACおよびC ++の説明

CUDAエラーメッセージ:不特定の起動失敗

CUDAカーネルでホスト関数を呼び出す方法は?

CUDAカーネルのグリッドとブロックの次元を選択するにはどうすればよいですか?

CUDAカーネルでは、「ローカルスレッドメモリ」に配列をどのように格納しますか?

「-Archsm_13」と「-Archsm_20」の違いは何ですか

CUDAデバイスコードでのstd :: vectorの使用

CUDAブロック/ワープ/スレッドはどのようにCUDAコアにマッピングされますか?

マルチGPUの基本的な使用法

UbuntuでCUDAサンプルをコンパイルするときにlibcudart.so.4が見つからないのはなぜですか?

CUDAエラー後のGPUとドライバーのリセット

CUDAコンピューティング機能の違いは何ですか?

CUDA-マルチプロセッサ、ワープサイズ、ブロックあたりの最大スレッド数:正確な関係は何ですか?

CUDAアトミック操作のリスト

cudaDeviceSynchronizeを呼び出すタイミング

単一のCUDAカーネルで開始できるスレッドの最大数

WindowsのQtCreatorでCudaコードをコンパイルする

グローバル機能とデバイス機能の違い

EmguCV-nvcuda.dllが見つかりませんでした

なぜatomicAddがdoubleに実装されていないのですか?

AMD GPUでCUDAを実行することはできますか?

cudaMalloc()がポインタからポインタを使用するのはなぜですか?

CUDAランタイムAPIエラー38:CUDA対応デバイスが検出されません

cmakeを使用したCUDAオブジェクトファイルの構築

Fortran対C ++、Fortranは今でも数値解析で利点を保持していますか?

コマンドラインからnvidiaドライバーバージョンを取得する方法は?

エラー:cuda_runtime.h:そのようなファイルまたはディレクトリはありません

このコードをGPUで実行できますか/すべきですか?

カーネル内で配列を動的に割り当てる方法は?

cudaStreamSynchronize vs CudaDeviceSynchronize vs cudaThreadSynchronize

CUDAランタイムAPIを使用してエラーをチェックする標準的な方法は何ですか?

CUDA共有メモリとグローバルメモリの違いは何ですか?

cudaカーネルからの印刷

GDB用に追加のライブラリをロードする方法は?

CUDAを使用してGPUメモリをフラッシュする方法(物理リセットは利用できません)

__syncthreads()はグリッド内のすべてのスレッドを同期しますか?

エラーメッセージ:PDBファイルが見つからないか、開けません

cuda APIでピッチドポインターをいつどのように使用する必要がありますか?

CUDAカーネルの呼び出しの「無効な構成引数」エラー?

C ++での高レベルGPUプログラミング

Cuda gridDimおよびblockDim