https://blog.csdn.net/github_36326955/article/details/79910448
keras在使用GPU的時候有個特點,就是默認全部佔滿顯存。 這樣如果有多個模型都需要使用GPU跑的話,那麼限制是很大的,而且對於GPU也是一種浪費。因此在使用keras時需要有意識的設置運行時使用那塊顯卡,需要使用多少容量。
這方面的設置一般有三種情況:
1. 指定顯卡
2. 限制GPU用量
3. 即指定顯卡又限制GPU用量
查看GPU使用情況語句(linux)
# 1秒鐘刷新一次
watch -n 1 nvidia-smi
一、指定顯卡
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "2"
這裏指定了使用編號爲2的GPU,大家可以根據需要和實際情況來指定使用的GPU二、限制GPU用量
1、設置使用GPU的百分比
-
import tensorflow as tf
-
import keras.backend.tensorflow_backend as KTF
-
#進行配置,使用30%的GPU
-
config = tf.ConfigProto()
-
config.gpu_options.per_process_gpu_memory_fraction = 0.3
-
session = tf.Session(config=config)# 設置session
-
KTF.set_session(session )
需要注意的是,雖然代碼或配置層面設置了對顯存佔用百分比閾值,但在實際運行中如果達到了這個閾值,程序有需要的話還是會突破這個閾值。換而言之如果跑在一個大數據集上還是會用到更多的顯存。以上的顯存限制僅僅爲了在跑小數據集時避免對顯存的浪費而已。
2、GPU按需使用
-
import tensorflow as tf
-
import keras.backend.tensorflow_backend as KTF
-
config = tf.ConfigProto()
-
config.gpu_options.allow_growth=True #不全部佔滿顯存, 按需分配
-
session = tf.Session(config=config)
-
# 設置session
-
KTF.set_session(sess)
三、指定GPU並且限制GPU用量
這個比較簡單,就是講上面兩種情況連上即可。。。
-
import os
-
import tensorflow as tf
-
import keras.backend.tensorflow_backend as KTF
-
# 指定第一塊GPU可用
-
os.environ["CUDA_VISIBLE_DEVICES"] = "0"
-
config = tf.ConfigProto()
-
config.gpu_options.allow_growth=True #不全部佔滿顯存, 按需分配
-
sess = tf.Session(config=config)
-
KTF.set_session(sess)
---------------------
作者:silent彥沁
來源:CSDN
原文:https://blog.csdn.net/A632189007/article/details/77978058
版權聲明:本文爲博主原創文章,轉載請附上博文鏈接!