記錄GeForce RTX 2080顯卡配置pytorch的過程(配置ST-GCN的代碼)

最近論文需要跑別人的代碼試一下,實驗室的小夥伴在他1060的顯卡上能運行,但是我把它拿到服務器上來跑,總是遇到問題。先來說一下,我最終的配置:

Python3.6.6 + Pytorch1.2.0 + cudatoolkit10.0.130 + cudnn7.6.0 + torchvision0.4.0,這是我最終成功後用到的各個版本。

再來說一下,配置過程中遇到的一些問題。

1、RuntimeError: CuDNN error: CUDNN_STATUS_SUCCESS錯誤,有帖子說是因爲python版本的問題,所以將原來的python3.6.7換爲了3.6.6.

2、接着還是RuntimeError: CuDNN error: CUDNN_STATUS_SUCCESS錯誤

這個問題,很多帖子說要2080的顯卡要用cuda10以上的版本,所以基本上先鎖定要提升cuda版本,試了cuda10.1.168不行,然後就用了cuda10.0.130.   命令: conda install cudatoolkit==10.0.130

 

3、接着安裝cudnn,直接使用conda install cudnn安裝即可,它自己會選擇和cuda版本對應的安裝包。

 

3、最後安裝Pytorch,從官網https://pytorch.org/get-started/locally/可以獲得安裝命令,記住cuda要選10.0的版本。得到的命令如下:conda install pytorch torchvision cudatoolkit=10.0 -c pytorch

 

4、接着還有一個錯誤,【笑哭】咋這麼多錯誤。。。RuntimeError: CUDA out of memory. Tried to allocate 352.00 MiB (GPU 0; 7.80 GiB total capacity; 6.45

哈哈,這個錯誤,不要慌,可能不是你的環境的問題了,可以試試縮小batch_size的值試試,可以設置較小的值,如1,2,4,8,16.。。。最終找到一個適合自己的值。

 

希望對大家有用,主要也是想記錄一下,怕以後再用到。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章