nohup python -u main.py >out.log 2>&1 &
nohup: 不結束通話執行程序,就是當客戶端斷開ssh連線時,程序仍然可以繼續在伺服器執行
python -u main.py: command命令,執行main.py。其中,-u指令是把執行輸出直接輸出到stdout
>out.log 2>&1: 將python檔案執行輸出和錯誤輸出重定向到out.log日誌檔案中
&: 後台執行程序
ps -aux
這個指令可以檢視系統中正在執行的程序
kill -9 pid(程序號)
終端命令
watch -n 10 nvidia-smi
其中,10表示每隔10秒重新整理一次終端的顯示結果。
將伺服器執行tensorboard的埠**到本地的埠,然後就可以在本地瀏覽器的**欄輸入127.0.0.1:20801,就可以看到tensorboard的視覺化結果
使用此方法:客戶端使用socket連線伺服器
建立ssh隧道來本地埠**
ssh -n -f -l 20801:172.17.0.6:20801 [email protected] -p 20801
-l: 本地埠**,將本地的20801埠通過中間機器(202.120.38.4)
**到目標機器(172.17.0.2)的20801埠
-n :告訴ssh客戶端,這個連線不需要執行任何命令,僅僅做埠**
-f :後台執行ssh客戶端
客戶端socket : host = 『127.0.0.1』 port = 20801
伺服器socket : host = ' ' port = 20801
建立虛擬環境
conda create -n env_name python==3.6.3
刪除虛擬環境
conda remove -n env_name --all
遷移虛擬環境
(1)匯出配置檔案 yaml
conda activate env_name
conda env
export
> env_name.yaml
(2)建立新環境
conda env create -f env_name.yaml
(1)先建立虛擬環境openpcdet
conda env create -f spconv_env.yaml
(2)安裝
pip install spconv-1.2.1-cp36-cp36m-linux_x86_64.whl
tensorboardx 2.0
tensorflow 1.14.0
使用指定GPU跑Pytorch
有如下兩種方法來指定需要使用的gpu。類似tensorflow指定gpu的方式,使用cuda visible devices。1.1 直接終端中設定 cuda visible devices 1 python my script.py 1.2 python 中設定 import os os.envi...
PyTorch中使用指定的GPU
pytorch預設使用從0開始的gpu,如果gpu0正在執行程式,需要指定其他gpu。有如下兩種方法來指定需要使用的gpu。1.類似tensorflow指定gpu的方式,使用cuda visible devices。1.1 直接終端中設定 cuda visible devices 1 python ...
pytorch使用GPU訓練MNIST資料集
參考莫凡部落格進行mnist資料集的訓練,臨時記錄所使用的 import torch import torch.nn as nn import torch.utils.data as data import torchvision import matplotlib.pyplot as plt to...