cuda toolkit 與cudnn
前面我們已經成功安裝了Nvidia驅動程序,接着進行cuda和cudnn的安裝和配置
NVIDIA的顯卡驅動器與CUDA並不是一一對應的,CUDA本質上只是一個工具包而已,所以可以在同一個設備上安裝很多個不同版本的CUDA工具包,比如我的電腦上同時安裝了 CUDA 9.0、CUDA 9.2、CUDA 10.0三個版本。一般情況下,只需要安裝最新版本的顯卡驅動,然後根據自己的選擇選擇不同CUDA工具包就可以了,但是由於使用離線的CUDA總是會捆綁CUDA和驅動程序,所以在使用多個CUDA的時候就不要選擇離線安裝的CUDA了,否則每次都會安裝不同的顯卡驅動,這不太好,我們直接安裝一個最新版的顯卡驅動,然後在線安裝不同版本的CUDA即可。
所以 CUDA和顯卡驅動是沒有一一對應的
cuDNN是一個SDK,是一個專門用於神經網絡的加速包,注意,它跟我們的CUDA沒有一一對應的關係,即每一個版本的CUDA可能有好幾個版本的cuDNN與之對應,但一般有一個最新版本的cuDNN版本與CUDA對應更好。
所以 cuDNN與CUDA沒有一一對應的關係
cuda與cudnn下官網下載地址:
https://developer.nvidia.com/cuda-toolkit-archive
https://developer.nvidia.com/rdp/cudnn-archive
下載需要的版本即可(需要登錄再下載)
安裝cuda相關依賴包:
sudo apt-get install freeglut3-dev build-essential libx11-dev libxmu-dev libxi-dev libgl1-mesa-glx libglu1-mesa libglu1-mesa-dev
安裝cuda
首先官網下載所需的cuda 版本
法一:
關閉圖形化界面
sudo service lightdm stop
或是
sudo telinit 3
再按Ctrl+Alt+F1進入tty界面
安裝
進入cuda下載文件夾
cd /home/Downloads
下載完成之後,給文件賦予執行權限:
chmod +x cuda_10.0.130_410.48_linux.run
執行安裝包,開始安裝:
./cuda_10.0.130_410.48_linux.run
開始安裝之後,需要閱讀說明,可以使用Ctrl + C
直接閱讀完成,或者使用空格鍵
慢慢閱讀。
(是否同意條款,必須同意才能繼續安裝)
accept/decline/quit: accept
(這裏不要安裝驅動,因爲已經安裝最新的驅動了,否則可能會安裝舊版本的顯卡驅動,導致重複登錄的情況)
Install NVIDIA Accelerated Graphics Driver for Linux-x86_64 410.48?
(y)es/(n)o/(q)uit: n
Install the CUDA 10.0 Toolkit?(是否安裝CUDA 10 ,這裏必須要安裝)
(y)es/(n)o/(q)uit: y
Enter Toolkit Location(安裝路徑,使用默認,直接回車就行)
[ default is /usr/local/cuda-10.0 ]:
Do you want to install a symbolic link at /usr/local/cuda?(同意創建軟鏈接)
(y)es/(n)o/(q)uit: y
Install the CUDA 10.0 Samples?(不用安裝測試,本身就有了)
(y)es/(n)o/(q)uit: n
Installing the CUDA Toolkit in /usr/local/cuda-10.0 ...(開始安裝)
Driver :Installed
Toolkit :Installed in /usr/local/cuda-10.0
Samples :Installed in /home/lihailin
重新啓動圖形化界面 sudo service lightdm start, Alt + ctrl +F7,返回到圖形化登錄界面,輸入密碼登錄。
如果能夠成功登錄,則表示不會遇到循環登錄的問題,基本說明cuda的安裝成功了。
法二:
直接安裝,命令行運行
sudo sh cuda_XXXX_linux.run
選擇與上方一致。
搭配環境(軟連接)
方法一:
終端輸入
echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc
方法二:
在vim ~/.bashrc
的最後加上以下配置信息:
export CUDA_HOME=/usr/local/cuda-10.0
export LD_LIBRARY_PATH=${CUDA_HOME}/lib64
export PATH=${CUDA_HOME}/bin:${PATH}
最後使用命令source ~/.bashrc
使它生效。
可以使用命令nvcc -V
查看安裝的版本信息:
test@test:~$ nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2018 NVIDIA Corporation
Built on Sat_Aug_25_21:08:01_CDT_2018
Cuda compilation tools, release 10.0, V10.0.130
驗證cuda是否安裝成功
執行以下幾條命令:
cd /usr/local/cuda-10.0/samples/1_Utilities/deviceQuery
make
./deviceQuery
正常情況下輸出:
./deviceQuery Starting...
CUDA Device Query (Runtime API) version (CUDART static linking)
Detected 1 CUDA Capable device(s)
Device 0: "GeForce RTX 2070"
CUDA Driver Version / Runtime Version 10.0 / 10.0
CUDA Capability Major/Minor version number: 7.5
Total amount of global memory: 7950 MBytes (8335982592 bytes)
(36) Multiprocessors, ( 64) CUDA Cores/MP: 2304 CUDA Cores
GPU Max Clock rate: 1620 MHz (1.62 GHz)
Memory Clock rate: 7001 Mhz
Memory Bus Width: 256-bit
L2 Cache Size: 4194304 bytes
Maximum Texture Dimension Size (x,y,z) 1D=(131072), 2D=(131072, 65536), 3D=(16384, 16384, 16384)
Maximum Layered 1D Texture Size, (num) layers 1D=(32768), 2048 layers
Maximum Layered 2D Texture Size, (num) layers 2D=(32768, 32768), 2048 layers
Total amount of constant memory: 65536 bytes
Total amount of shared memory per block: 49152 bytes
Total number of registers available per block: 65536
Warp size: 32
Maximum number of threads per multiprocessor: 1024
Maximum number of threads per block: 1024
Max dimension size of a thread block (x,y,z): (1024, 1024, 64)
Max dimension size of a grid size (x,y,z): (2147483647, 65535, 65535)
Maximum memory pitch: 2147483647 bytes
Texture alignment: 512 bytes
Concurrent copy and kernel execution: Yes with 3 copy engine(s)
Run time limit on kernels: Yes
Integrated GPU sharing Host Memory: No
Support host page-locked memory mapping: Yes
Alignment requirement for Surfaces: Yes
Device has ECC support: Disabled
Device supports Unified Addressing (UVA): Yes
Device supports Compute Preemption: Yes
Supports Cooperative Kernel Launch: Yes
Supports MultiDevice Co-op Kernel Launch: Yes
Device PCI Domain ID / Bus ID / location ID: 0 / 1 / 0
Compute Mode:
< Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >
deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 10.0, CUDA Runtime Version = 10.0, NumDevs = 1
Result = PASS
cndnn的配置
進入官網https://developer.nvidia.com/rdp/cudnn-archive選擇相應的版本,
這裏選擇cuDNN Library for Linux
下載之後是一個壓縮包,如下:
cudnn-10.0-linux-x64-v7.6.3.30.tgz
然後對它進行解壓,執行命令:
tar -zxvf cudnn-10.0-linux-x64-v7.6.3.30.tgz
解壓後得到:
使用以下兩條命令複製這些文件到CUDA目錄下:
cp cuda/lib64/* /usr/local/cuda-10.0/lib64/
cp cuda/include/* /usr/local/cuda-10.0/include/
拷貝完成之後,可以使用以下命令查看CUDNN的版本信息:
cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
如圖cudnn版本爲7.6.3。
至此完成安裝,後面可安裝對應的Pytorch或者tensorflow的GPU版本測試是否可以正常使用。
查看cuda版本指令
nvcc -V
nvcc -version
#cuda 版本
cat /usr/local/cuda/version.txt
# cd usr/local
stat cuda
查看cudnn版本:
# cudnn 版本
cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
下一篇將介紹多版本cuda共存的配置安裝