檢視機器上gpu情況
命令: nvidia-smi
功能:顯示機器上gpu的情況
命令: nvidia-smi -l
功能:定時更新顯示機器上gpu的情況
命令:watch -n 3 nvidia-smi
功能:設定重新整理時間(秒)顯示gpu使用情況
其中左上側有0、1、2、3的編號,表示gpu的編號,在後面指定gpu時需要使用這個編號。
在終端執行程式時指定gpu
cuda_visible_devices=1 python your_file.py
這樣在跑你的網路之前,告訴程式只能看到1號gpu,其他的gpu它不可見
可用的形式如下:
cuda_visible_devices=1 only device 1 will be seen
cuda_visible_devices=0,1 devices 0 and 1 will be visible
cuda_visible_devices="0,1" same as above, quotation marks are optional
cuda_visible_devices=0,2,3 devices 0, 2, 3 will be visible; device 1 is masked
cuda_visible_devices="" no gpu will be visible
在python**中指定gpu
import os
os.environ["cuda_device_order"] = "pci_bus_id"
os.environ["cuda_visible_devices"] = "0"
設定定量的gpu使用量
config = tf.configproto()
config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用gpu90%的視訊記憶體
session = tf.session(config=config)
設定最小的gpu使用量
config = tf.configproto()
config.gpu_options.allow_growth = true
session = tf.session(config=config)
使用GPU跑程式
檢視機器上gpu情況 命令 nvidia smi 功能 顯示機器上gpu的情況 命令 nvidia smi l 功能 定時更新顯示機器上gpu的情況 命令 watch n 3 nvidia smi 功能 設定重新整理時間 秒 顯示gpu使用情況 其中左上側有0 1 2 3的編號,表示gpu的編號,在...
pycharm中使用GPU跑程式
檢視機器上gpu情況 命令 nvidia smi 功能 顯示機器上gpu的情況 命令 nvidia smi l 功能 定時更新顯示機器上gpu的情況 命令 watch n 3 nvidia smi 功能 設定重新整理時間 秒 顯示gpu使用情況 其中左上側有0 1 2 3的編號,表示gpu的編號,在...
如何使用伺服器跑程式
深度學習由於引數,資料量較大,經常需要在伺服器上執行程式。本文主要介紹如何使用終端模擬軟體mobaxter 其他終端軟體也基本一樣 連線伺服器並執行 接下來對跑程式常用的linux命令進行說明。第一步 ls 檢視當前目錄下的檔案和資料夾 cd 切換工作目錄 執行 時首先要切換到所要執行 的工作目錄,...