在服務器上運行tensorflow的時候,我們有的程序可能只會使用到一塊顯卡,但是服務器上有很多顯卡,如果一起用主要2個問題。
1.顯存可能會都被佔滿
2.不指定的話總會默認使用第一個。
雖然在程序裏面也可以指定使用哪塊顯卡,但是我覺得不如在命令上加個參數實用。
CUDA_VISIBLE_DEVICES=3,4 python demo.py
上面這個命令就是隻給demo.py使用3和4兩塊顯卡,但是調用的時候還是gpn:0和gpu:1。
在服務器上運行tensorflow的時候,我們有的程序可能只會使用到一塊顯卡,但是服務器上有很多顯卡,如果一起用主要2個問題。
1.顯存可能會都被佔滿
2.不指定的話總會默認使用第一個。
雖然在程序裏面也可以指定使用哪塊顯卡,但是我覺得不如在命令上加個參數實用。
CUDA_VISIBLE_DEVICES=3,4 python demo.py
上面這個命令就是隻給demo.py使用3和4兩塊顯卡,但是調用的時候還是gpn:0和gpu:1。
class MetaCls(type): def __new__(cls, *args, **kwargs): print("in MetaCls") # return super(Meta