1.
# 把x0和x1的資料合在一起,宣告是什麼型別的資料集
x = torch.cat((x0, x1), 0).type(torch.floattensor) # shape (200, 2) floattensor = 32-bit floating
y = torch.cat((y0, y1), ).type(torch.longtensor) # shape (200,) longtensor = 64-bit integer
2.
對於回歸問題常用的損失函式有:均方誤差(mse),平均絕對值誤差(也稱l1損失)等。
對於分類問題,常用的損失函式則為交叉熵(cross entropy loss)。
而交叉熵本質上描述的是兩個概率分布的距離,即實際概率與期望概率之間的距離。這就不難理解:
交叉熵的值越小,兩個概率分布就越接近,也就是**值越接近期望值。
3. load資料
torch_dataset = data.tensordataset(x, y) # 告訴資料庫訓練資料是x, 計算loss的target是y
loader = data.dataloader(
dataset=torch_dataset,
batch_size=5,
shuffle=true, # 需不需要打亂資料順序去訓練
num_workers=2, # 提取的執行緒和程序數??
) # 使我們的訓練值變成一小批一小批的
3. 生成當前的準確時間和時間戳
now = datetime.datetime.now(dateutil.tz.tzlocal()) # 生成當前的日期和時間
timestamp = now.strftime('%y_%m_%d_%h_%m_%s') # 生成時間戳
output_dir = '../output/%s_%s_%s' % \
(cfg.dataset_name, cfg.config_name, timestamp)
pytorch基礎函式
返回乙個張量,從標準正態分佈 均值為0,方差為1 中抽取的一組隨機數。張量的形狀由引數sizes定義。import torch import torch.nn.functional as f x1 torch.tensor 1,2,3,4 1,3,4,5 3,4,5,6 y11 f.softmax ...
Pytorch基礎操作
import torch import numpy as np x torch.empty 5,3 print x 初始化乙個隨機矩陣 x torch.zeros 5,3,dtype torch.long print x 構建乙個全0矩陣 x x.new ones 5,3,dtype torch.d...
pytorch基礎練習
colab自帶pytorch,是不是很方便!順便,感謝xzy和mds大佬提供的幫助 參考部落格 我猜一定有人想要 吧 import torch x torch.empty 5,3 print x 建立乙個沒有初始化的矩陣 y torch.rand 5,3 print y 建立乙個隨機初始化的矩陣 z...