檢視機器上gpu情況
命令: nvidia-smi
功能:顯示機器上gpu的情況
其中左上側有0、1、2、3的編號,表示gpu的編號,在後面指定gpu時需要使用這個編號。
方法一:在終端執行程式時指定gpu
cuda_visible_devices=1 python your_file.py
這樣在跑你的網路之前,告訴程式只能看到1號gpu,其他的gpu它不可見
可用的形式如下:
cuda_visible_devices=1 only device 1 will be seen
cuda_visible_devices=0,1 devices 0 and 1 will be visible
cuda_visible_devices="0,1" same as above, quotation marks are optional
cuda_visible_devices=0,2,3 devices 0, 2, 3 will be visible; device 1 is masked
cuda_visible_devices="" no gpu will be visible
方法二:在python**中指定gpu
import os
os.environ["cuda_visible_devices"] = "0"
Tensorflow指定顯示卡GPU執行
有些工作站配備了不止一塊顯示卡,比如4路泰坦。tensorflow會預設使用第0塊gpu,而以tensorflow為backend的keras會預設使用全部gpu資源。有時候有多個人需要跑實驗,如果乙個人占用了全部gpu,其他人就不能跑了。因此需要能夠指定使用特定的gpu。具體地,只需要在主 的開頭...
伺服器nvida顯示卡驅動安裝(親測)
一.準備工作 顯示卡驅動要對應系統版本和顯示卡版本 檢視系統版本 uname a 或者cat proc version 57 18.04.1 ubuntusmp thu oct 15 14 04 49 utc 2020 x86 64 x86 64 x86 64 gnu linux 檢視顯示卡資訊 二...
命令檢視Linux伺服器記憶體 CPU 顯示卡使用情況
使用命令 free m 大致結果類似下圖 引數解釋 mem行 單位均為m total 記憶體總數 used 已使用記憶體數 free 空閒記憶體數 shared 當前廢棄不用 buffers 快取記憶體數 buffer cached 快取內舒數 page buffers cache 行 buffer...