主要是給了乙個簡單的例項去展示系統的乙個完整的線性回歸模擬是什麼樣的;
例如,對於乙個簡單的線性回歸模型,我們採用如下公式進行模擬:
可以自己擬定資料集:
t_c = [0.5, 14.0, 15.0, 28.0, 11.0, 8.0, 3.0, -4.0, 6.0, 13.0, 21.0]對於損失函式,有:t_u = [35.7, 55.9, 58.2, 81.9, 56.3, 48.9, 33.9, 21.8, 48.4, 60.4, 68.4]
t_c = torch.tensor(t_c)
t_u = torch.tensor(t_u)
所以,對於鏈式求導法則,我們有如下推導:
所以,整體函式有以下表述形式:
所以,上述就是每次在epoch迴圈體中呼叫的隨時函式,要求使得更新後的w,d使得loss足夠小;
直接更新就完事了;
注意幾點:
1.關於學習速率的選擇;
2.各個引數的歸一化問題;
兩者大量影響學習效果,後續可以給出數學推導給予證明;
一維線性回歸pytorch實現
訓練 import torch import numpy as np x train np.array 3.3 4.4 5.5 6.71 6.93 4.168 9.799 y train np.array 1.7 2.76 2.09 3.19 1.694 1.573 3.366 x train to...
Pytorch基礎 線性回歸
剛開始入門機器學習,線性回歸是肯定躲不過的。特別到之後的神經網路的全連線層也是需要線性回歸基礎。最簡單的公式就是y w x by wx b y wx b x和y是已知量,要求出w和b的值。我們在平面座標圖上看,y w x by wx b y wx b 就是一條直線。我們要確認這條直線就只要兩個點就可...
PyTorch的一些線性代數函式
pytorch還支援一些線性函式,免得用起來的時候自己造輪子,具體用法參考官方文件。如下表所示 函式功能 trace 對 角線元素之和 矩陣的跡 diag 對 角線元素 triu tril 矩陣的上三 角 下三 角,可指定偏移量 mm bmm 矩陣乘法,batch的矩陣乘法 addmm addbmm...