pytorch學習小白,跑大佬們的源**時難免遇到「意想不到」的問題,有過心酸崩潰路,但感恩各位大佬文章的啟發幫助,一路摸爬滾打,有了起色。現整理自己學習過程中遇到的問題,方便你我他參考~
問題1. pytorch訓練時gpu視訊記憶體突增,崩潰,報錯「out of memory」
解決思路:對占用gpu視訊記憶體的變數「後續若不再用,則用完即刪」。
借鑑文章:
備註:占用gpu視訊記憶體的變數的特點–「***.cuda()」
「用完即刪」用到的「兩把斧頭」:
(1)del 變數名
(2)torch.cuda.empty_cache()
舉例:
img = img.cuda()
segm = segm.cuda()
outputs = model(img)
# 變數img,segm和outputs均為占用gpu視訊記憶體的變數
........ # 有關img,segm,outputs的**
del img, segm, outputs
torch.cuda.empty_cache()
安裝pytorch遇到的問題
git clone recursive pip install r requirements.txt 這步操作超級慢 python setup.py install 安裝成功後,測試 python import torch 出現錯誤 參考 cd usr local lib python3.5 dis...
pytorch 學習遇到的 問題
relu 和 leaky relu 中 inplace 設定 nn.relu inplace true default inplace false nn.leakyrelu inplace true default inplace false 將計算得到的值直接覆蓋之前的值 有時能夠節省運算記憶體,...
使用pytorch時遇到的問題彙總 二
情況分為兩種 情況一 解決 model.load state dict checkpoint,false 這個部分的作用是判斷上面引數拷貝過程中是否有unexpected keys或者missing keys,如果有就報錯,不能繼續執行。當然,如果strict false,則會忽略這些細節。情況二 ...