tensorflow限制使用某塊顯卡

在服務器上運行tensorflow的時候,我們有的程序可能只會使用到一塊顯卡,但是服務器上有很多顯卡,如果一起用主要2個問題。

1.顯存可能會都被佔滿

2.不指定的話總會默認使用第一個。

雖然在程序裏面也可以指定使用哪塊顯卡,但是我覺得不如在命令上加個參數實用。

CUDA_VISIBLE_DEVICES=3,4 python demo.py

上面這個命令就是隻給demo.py使用3和4兩塊顯卡,但是調用的時候還是gpn:0和gpu:1。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章