私は次のようにCudaをインストールできることを知っています:
wget http://developer.download.nvidia.com/compute/cuda/7_0/Prod/local_installers/cuda_7.0.28_linux.run chmod + x cuda_7.0.28_linux.run ./ cuda_7.0.28_linux.run -extract = `pwd`/nvidia_installers cd nvidia_installers Sudo ./NVIDIA-Linux-x86_64-346.46.run Sudo modprobe nvidia Sudo ./cuda-linux64-rel-7.0.28-19326674.run
ルートなしでCudaをインストールできるかどうか疑問に思っていますか?
おかげで、
CUDAをインストールしてプログラムをコンパイルすることはできますが、デバイスにアクセスできないためにプログラムを実行することはできません。
Update_10.1
_のインストールUIが変更されました。以下の作品:
ENTER
onを押す)options -> root install path
_を非Sudoディレクトリに変更します。+
_でマークされた行でA
を押して、詳細オプションにアクセスします。 _create symbolic link
_の選択を解除し、_toolkit install path
_を変更します。質問のヒントをどうもありがとう! this Gist にも触発された有効な方法でそれを完成させたいのですが、有効なドライバーがインストールされている状況で root権限のないLinux上の最新のCUDAがまだ必要です。
TL; DR:DebianにCUDA9 + CUDNN7をインストールし、Python2.7にTensorFlow1.4のプリコンパイルバージョンをインストールする手順は次のとおりです。すべてが機能することをテストします。 root権限がなく、ターミナルを介したすべて。他のCUDA、CUDNN、TensorFlow、およびPythonバージョンも他のLinuxシステムで動作します。
NVIDIAのCUDAの公式リリースWebにアクセスします(2017年11月現在、CUDA9はリリースされています): https://developer.nvidia.com/cuda-downloads 。
Linuxディストリビューションで、runfile (local)
optionを選択します。 root権限なしでこのインストーラーを実行することが可能であるため、インストール手順にあるSudo
の表示は誤っていることに注意してください。サーバーでは、1つの簡単な方法は、Download
ボタンの_<LINK>
_をコピーし、ホームディレクトリの任意の場所で_wget <LINK>
_を実行することです。 _<INSTALLER>
_ファイルをダウンロードします。
_chmod +x <INSTALLER>
_を実行して実行可能にし、_./<INSTALLER>
_を実行します。
accept
EULA、_say no to dr
_ iverのインストール、およびホームディレクトリの下の_<CUDA>
_の場所を入力してツールキットをインストールし、サンプルの_<CUDASAMPLES>
_を入力します。
ここでは尋ねられませんが推奨されます: 公式Web から互換性のあるCUDNNファイルをダウンロードします(サインインする必要があります)。私の場合、CUDA9と互換性のある_cudnn-9.0-linux-x64-v7.tgz
_を_<CUDNN>
_フォルダーにダウンロードしました。圧縮解除します:_tar -xzvf ...
_。
オプション:サンプルをコンパイルします。 _cd <CUDASAMPLES> && make
_。そこにはいくつかの非常に素晴らしい例があり、いくつか 自分のCUDAスクリプト を書くための非常に優れた出発点があります。
(5を実行した場合):CUDNNに必要なファイルをCUDAにコピーし、ユーザーに読み取り権限を付与します(必要かどうかは不明です):
_cp -P <CUDNN>/cuda/include/cudnn.h <CUDA>/include/
cp -P cudnn9/cuda/lib64/libcudnn* cuda9/lib64
chmod a+r cuda9/include/cudnn.h cuda9/lib64/libcudnn*
_
~/.bashrc
_ファイルに追加します(この例では、_<CUDA>
_ディレクトリは_~/cuda9/
_でした:_export PATH=$HOME/cuda9/bin:$PATH
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$HOME/cuda9/lib64/
_
CUDA9およびCUDNN7と互換性のあるTensorFlowを取得する最も簡単な方法(およびこれをテストする非常に迅速な方法)は、プリコンパイルされたwheel
ファイルをダウンロードし、_pip install <WHEEL>
_を使用してインストールすることです。必要なバージョンのほとんどは mind's repo にあります(多くの人に感謝します)。 CUDNNも機能していることを確認する最小限のテストでは、 _tf.nn.conv2d
_ を使用します。
_import tensorflow as tf
x = tf.nn.conv2d(tf.ones([1,1,10,1]), tf.ones([1,5,1,1]), strides=[1, 1, 1, 1], padding='SAME')
with tf.Session() as sess:
sess.run(x) # this should output a tensor of shape (1,1,10,1) with [3,4,5,5,5,5,5,5,4,3]
_
私の場合、 ここに で説明されているように、 インストールしたホイール にはIntelのMKLライブラリが必要です。繰り返しますが、ターミナルから、ルートユーザーなしで、これは私がライブラリをインストールしてTensorFlowにそれを見つけさせるために実行した手順です( 参照 ):
git clone https://github.com/01org/mkl-dnn.git
_cd mkl-dnn/scripts && ./prepare_mkl.sh && cd ..
_mkdir -p build && cd build
_cmake -D CMAKE_INSTALL_PREFIX:PATH=<TARGET_DIR_IN_HOME> ..
_make
#しばらく時間がかかりますmake doc
_#doxygen
がある場合、オプションでこれを実行しますmake test
_#も少し時間がかかりますmake install # installs into <TARGET_DIR_IN_HOME>
_~/.bashrc
_に追加します:_export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:<TARGET_DIR_IN_HOME>/lib
_お役に立てれば!
アンドレス
次のコマンドでcondaを使用してインストールできます。
conda install -c anaconda cudatoolkit
ただし、デバイス(GPU)に事前にアクセスする必要があります。
編集:anacondaリポジトリーでエラーを見つけた場合は、リポジトリーを頻繁に更新されるconda-forge
に変更します。
conda install -c conda-forge cudatoolkit