PyTorch入門(四)使用GPU伺服器煉丹

2021-10-02 18:32:58 字數 1515 閱讀 8857

nohup python -u main.py >out.log 2>&1 &

nohup: 不結束通話執行程序,就是當客戶端斷開ssh連線時,程序仍然可以繼續在伺服器執行

python -u main.py: command命令,執行main.py。其中,-u指令是把執行輸出直接輸出到stdout

>out.log 2>&1: 將python檔案執行輸出和錯誤輸出重定向到out.log日誌檔案中

&: 後台執行程序

ps -aux

這個指令可以檢視系統中正在執行的程序

kill -9 pid(程序號)
終端命令

watch -n 10 nvidia-smi

其中,10表示每隔10秒重新整理一次終端的顯示結果。

將伺服器執行tensorboard的埠**到本地的埠,然後就可以在本地瀏覽器的**欄輸入127.0.0.1:20801,就可以看到tensorboard的視覺化結果

使用此方法:客戶端使用socket連線伺服器

建立ssh隧道本地埠**

ssh -n -f -l 20801:172.17.0.6:20801 [email protected]  -p 20801

-l: 本地埠**,將本地的20801埠通過中間機器(202.120.38.4)

**到目標機器(172.17.0.2)的20801埠

-n :告訴ssh客戶端,這個連線不需要執行任何命令,僅僅做埠**

-f :後台執行ssh客戶端

客戶端socket : host = 『127.0.0.1』 port = 20801

伺服器socket : host = ' ' port = 20801

建立虛擬環境

conda create -n env_name python==3.6.3
刪除虛擬環境

conda remove -n env_name --all
遷移虛擬環境

(1)匯出配置檔案 yaml

conda activate env_name

conda env

export

> env_name.yaml

(2)建立新環境

conda env create -f env_name.yaml

(1)先建立虛擬環境openpcdet

conda env create -f spconv_env.yaml

(2)安裝

pip install spconv-1.2.1-cp36-cp36m-linux_x86_64.whl

tensorboardx 2.0

tensorflow 1.14.0

使用指定GPU跑Pytorch

有如下兩種方法來指定需要使用的gpu。類似tensorflow指定gpu的方式,使用cuda visible devices。1.1 直接終端中設定 cuda visible devices 1 python my script.py 1.2 python 中設定 import os os.envi...

PyTorch中使用指定的GPU

pytorch預設使用從0開始的gpu,如果gpu0正在執行程式,需要指定其他gpu。有如下兩種方法來指定需要使用的gpu。1.類似tensorflow指定gpu的方式,使用cuda visible devices。1.1 直接終端中設定 cuda visible devices 1 python ...

pytorch使用GPU訓練MNIST資料集

參考莫凡部落格進行mnist資料集的訓練,臨時記錄所使用的 import torch import torch.nn as nn import torch.utils.data as data import torchvision import matplotlib.pyplot as plt to...