scatter()和scatter_()的作用是一樣的,只不過 scatter() 不會直接修改原來的 tensor,而 scatter_() 會
pytorch 中,一般函式加下劃線代表直接在原來的 tensor 上修改scatter(dim, index, src) 的引數有 3 個
這個 scatter 可以理解成放置元素或者修改元素簡單說就是通過乙個張量 src 來修改另乙個張量,哪個元素需要修改、用 src 中的哪個元素來修改由 dim 和 index 決定
官方文件給出了 3維張量 的具體操作說明,如下所示
self[index[i][j][k]][j][k] = src[i][j][k] #exmaple:if dim == 0
self[i][index[i][j][k]][k] = src[i][j][k] #
if dim == 1
self[i][j][index[i][j][k]]= src[i][j][k] #
if dim == 2
x = torch.rand(2, 5)具體地說,我們的 index 是 torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]),乙個二維張量,下面用圖簡單說明#tensor([[0.1940, 0.3340, 0.8184, 0.4269, 0.5945],
#[0.2078, 0.5978, 0.0074, 0.0943, 0.0266]])
torch.zeros(3, 5).scatter_(0, torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]), x)
#tensor([[0.1940, 0.5978, 0.0074, 0.4269, 0.5945],
#[0.0000, 0.3340, 0.0000, 0.0943, 0.0000],
#[0.2078, 0.0000, 0.8184, 0.0000, 0.0266]])
我們是 2維 張量,一開始進行 $self[index[0][0]][0]$,其中 $index[0][0]$ 的值是0,所以執行 $self[0][0] = x[0][0] = 0.1940$
再比如$self[index[1][0]][0]$,其中 $index[1][0]$ 的值是2,所以執行 $self[2][0] = x[1][0] = 0.2078$
src 除了可以是張量外,也可以是乙個標量
example:
torch.zeros(3, 5).scatter_(0, torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]), 7)scatter()一般可以用來對標籤進行 one-hot 編碼,這就是乙個典型的用標量來修改張量的乙個例子#tensor([[7., 7., 7., 7., 7.],
#[0., 7., 0., 7., 0.],
#[7., 0., 7., 0., 7.]]
example:
class_num = 10batch_size = 4label = torch.longtensor(batch_size, 1).random_() %class_num#tensor([[6],
#[0],
#[3],
#[2]])
torch.zeros(batch_size, class_num).scatter_(1, label, 1)
#tensor([[0., 0., 0., 0., 0., 0., 1., 0., 0., 0.],
#[1., 0., 0., 0., 0., 0., 0., 0., 0., 0.],
#[0., 0., 0., 1., 0., 0., 0., 0., 0., 0.],
#[0., 0., 1., 0., 0., 0., 0., 0., 0., 0.]])
PyTorch學習筆記之Variable
深度學習的演算法本質上是通過反向傳播求導數,pytorch的autograd模組實現了此功能。autograd.variable是autograd中的核心類,它簡單封裝了tensor,並支援幾乎所有tensor的操作。tensor在被封裝為variable之後,可以呼叫它的.backward實現反向...
PyTorch筆記之scatter 函式的使用
scatter 和 程式設計客棧scatter 的作用是一樣的,只不過 scatter 不會直接修改原來的 tensor,而 scatter 會 pytorch 中,一般函式加下劃線代表直接在原來的 tensor 上修改 scatter dim,index,src 的引數有 3 個 這個 scatt...
Pytorch學習筆記之通過numpy實現線性擬合
通過使用numpy庫編寫簡單的gradient descent資料位於附件之中 import torch from torch import autograd import numpy as np import matplotlib.pyplot as plt torch關於求導的簡單運用 x to...