秉承一貫風格:先挖坑:
優先順序:
1. doc文件總結。(以及附加和torch的對比,寫在最後)
2. 對variable,parameter以及自動反向傳播的更深理解
3. 自定義反向傳播的寫法,以及注意點。包括擴充套件torch.autograd.function以及torch.nn.module
4. variable的一些注意事項
5. 自定義loss函式
6. 將論壇中的一些常見問題進行總結。
附加:# 可以將output中所有大於0.5的值都置為1,其餘的置為0
# 返回的是 bytetensor
output = (output > 0.5).mul_(1)
PyTorch學習1 PyTorch的基本資料型別
import torch import numpy as np a torch.randn 2,3 隨機初始化乙個2行3列的矩陣 print a print a.type torch.floattensor print type a print isinstance a,torch.floatten...
pytorch 學習遇到的 問題
relu 和 leaky relu 中 inplace 設定 nn.relu inplace true default inplace false nn.leakyrelu inplace true default inplace false 將計算得到的值直接覆蓋之前的值 有時能夠節省運算記憶體,...
Pytorch學習 張量的索引切片
張量的索引切片方式和numpy幾乎是一樣的。切片時支援預設引數和省略號。可以通過索引和切片對部分元素進行修改。此外,對於不規則的切片提取,可以使用torch.index select,torch.masked select,torch.take 如果要通過修改張量的某些元素得到新的張量,可以使用to...