scatter() 和 程式設計客棧scatter_() 的作用是一樣的,只不過 scatter() 不會直接修改原來的 tensor,而 scatter_() 會
pytorch 中,一般函式加下劃線代表直接在原來的 tensor 上修改
scatter(dim, index, src) 的引數有 3 個
這個 scatter可以理解成放置元素或者修改元素
簡單說就是通過乙個張量 src 來修改另乙個張量,哪個元素需要修改、用 src 中的哪個元素來修改由 dim 和 index 決定
官方文件給出了 3維張量 的具體操作說明,如下所示
self[index[i][j][k]][j][k] = src[i][j][k] # if dim == 0
self[i][index[i][j][k]][k] = src[i][j][k] # if dim == 1
self[i][j][程式設計客棧index[i][j][k]] = src[i][j][k] # if dim == 2
exmaple:
x = torch.rand(2, 5)
#tensor([[0.1940, 0.3340, 0.8184, 0.4269, 0.5945],
# [0.2078, 0.5978, 0.0074, 0.0943, 0.0266]])
torch.zeros(3, 5).scatter_(0, torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]), x)
#tensor([[0.1940, 0.5978, 0.0074, 0.4269, 0.5945],
# [0.0000, 0.3340, 0.0000, 0.0943, 0.0000],
# [0.2078, 0.0000, 0.8184, 0.0000, 0.0266]]
具體地說,我們的 index 是torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]),乙個二維張量,下面用圖簡單說明
我們是 2維 張量,一開始進行 $self[index[0][0]][0]$,其中 $index[0][0]$ 的值是0,所以執行 $self[0][0] = x[0][0] = 0.1940$
$self[index[i][j]][j] = src[i][j] $
再比如$self[index[1][0]][0]$,其中 $index[1][0]$ 的值是2,所以執行 $self[2][0] = x[1][0] = 0.2078$
src 除了可以是張量外,也可以是乙個標量
example:
torch.zeros(3, 5).scatter_(0, torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]), 7)
#tensor([[7., 7., 7., 7., 7.],
# [0., 7., 0., 7., 0.],
# [7., 0., 7., 0., 7.]]
scatter()一般可以用來對標籤進行 one-hot 編碼,這就www.cppcns.com是乙個典型的用標量來修改張量的乙個例子
example:
class_num = 10
batch_size = 4
label = torch.longtensor(batch_size, 程式設計客棧1).random_() % class_num
#tensor([[6],
# [0],
# [3],
# [2]])
torch.zeros(batch_size, class_num).scatter_(1, label, 1)
#tensor([[0., 0., 0., 0., 0., 0., 1., 0., 0., 0.],
# [1., 0., 0., 0., 0., 0., 0., 0., 0., 0.],
# [0., 0., 0., 1., 0., 0., 0., 0., 0., 0.],
# [0., 0., 1., 0., 0., 0., 0., 0., 0., 0.]])
本文標題: pytorch筆記之scatter()函式的使用
本文位址:
PyTorch學習筆記之Variable
深度學習的演算法本質上是通過反向傳播求導數,pytorch的autograd模組實現了此功能。autograd.variable是autograd中的核心類,它簡單封裝了tensor,並支援幾乎所有tensor的操作。tensor在被封裝為variable之後,可以呼叫它的.backward實現反向...
PyTorch筆記之 scatter 函式
scatter 和scatter 的作用是一樣的,只不過 scatter 不會直接修改原來的 tensor,而 scatter 會 pytorch 中,一般函式加下劃線代表直接在原來的 tensor 上修改 scatter dim,index,src 的引數有 3 個 這個 scatter 可以理解...
Pytorch學習筆記之通過numpy實現線性擬合
通過使用numpy庫編寫簡單的gradient descent資料位於附件之中 import torch from torch import autograd import numpy as np import matplotlib.pyplot as plt torch關於求導的簡單運用 x to...