創(chuàng)新互聯(lián)www.cdcxhl.cn八線動(dòng)態(tài)BGP香港云服務(wù)器提供商,新人活動(dòng)買(mǎi)多久送多久,劃算不套路!
小編給大家分享一下如何設(shè)置多卡服務(wù)器下隱藏部分GPU和TensorFlow的顯存使用,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討方法吧!
服務(wù)器有多張顯卡,一般是組里共用,分配好顯卡和任務(wù)就體現(xiàn)公德了。除了在代碼中指定使用的 GPU 編號(hào),還可以直接設(shè)置可見(jiàn) GPU 編號(hào),使程序/用戶只對(duì)部分 GPU 可見(jiàn)。
操作很簡(jiǎn)單,使用環(huán)境變量 CUDA_VISIBLE_DEVICES 即可。
具體來(lái)說(shuō),如果使用單卡運(yùn)行 Python 腳本,則可輸入
CUDA_VISIBLE_DEVICES=1 python my_script.py
腳本將只使用 GPU1。
在 .py 腳本和 Notebook 中設(shè)置,則
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "2"
還可以直接設(shè)置臨時(shí)的環(huán)境變量:
export CUDA_VISIBLE_DEVICES="0"
此時(shí)該用戶的 CUDA 只看得見(jiàn) GPU0。
至于顯存設(shè)置,可以設(shè)置使用比例(70%):
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.7)
sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))
也可以按需增長(zhǎng):
config = tf.ConfigProto() config.gpu_options.allow_growth = True session = tf.Session(config=config, ...)