在這裡,關於數學原理部分全部用「引用」的格式進行說明,如果對數學原理十分熟悉,可以跳過。但對於原理並不熟悉的人,了解清楚原理是十分必要的。
單變數線性回歸是一種非常簡單的,根據乙個變數x**定量響應變數y的方法。它假設x和y是線性關係。**模型為: y=a0+a
1x,其中 a
0,a1
為模型的係數(引數),分別代表截距和斜率。
線性回歸中最常用的確定回歸引數的方法是最小二乘法。其原理是:使得模型所體現的直線盡可能接近每個資料點。而確定接近程度的度量一般使用殘差平方和。因此最小二乘法就是找到殘差平方和最小的模型引數。衡量模型的準確性我們用到殘差平方和(residual sum of squares, rss): rs
s=e2
1+e2
2+……
+e2n
其中 e
i=yi
−yi^
,yi^
=a0+
a1xi
,上式也可以寫作 r
ss=∑
(yi−
yi^)
2
另外定義總平方和(ts
s ), t
ss=∑
(yi−
y¯)2
不難看出,tss實際就是響應變數的方差。
1. 殘差標準差(rse)
因為真實資料的方差(σ2
)一般是未知的,因此使用殘差標準誤差(residual standard error, rse)來估計。rs
e=rs
sn−2
−−−−
−√rse是度量模型失擬(lack of fit)的,如果模型對每個資料擬合的都很好,rse則較小。但rse是以y的單位為量綱,所以有時不清楚如何影響rse變化。
2. r
2 統計量r2
統計量是衡量擬合度的另乙個標準,其定義為:r2
=1−r
ssts
s tss表示了響應變數固有的不確定性,rss則代表回歸後仍然無法解釋的不確定性。通俗來說,r2
顯示了響應變數能夠解釋的部分所佔比例。r2
取值為[0,1],r2
=1表示回歸解釋了響應變數全部的變異,r2
=0表示回歸沒有解釋響應變數的變異。 * r
2 與rse相比,更加通俗易懂,因為rse的量綱是響應變數的量綱,不夠直觀 * r
2 的取值可以理解成模型的解釋性,例如r2
=0.6
表明模型可以解釋60%的響應變數。
Pytorch基礎 線性回歸
剛開始入門機器學習,線性回歸是肯定躲不過的。特別到之後的神經網路的全連線層也是需要線性回歸基礎。最簡單的公式就是y w x by wx b y wx b x和y是已知量,要求出w和b的值。我們在平面座標圖上看,y w x by wx b y wx b 就是一條直線。我們要確認這條直線就只要兩個點就可...
線性回歸基礎知識
理解什麼是線性回歸 線性回歸也被稱為最小二乘法回歸 linear regression,also called ordinary least squares ols regression 它的數學模型是這樣的 y a b x e 其中,a被稱為常數項或截距 b被稱為模型的回歸係數或斜率 e為誤差項。...
線性回歸模型 線性回歸模型
回歸的思想和分類有所不一樣,分類輸出的結果為離散的值,回歸輸出的是乙個連續型的值。線性回歸的思想就是試圖找到乙個多元的線性函式 當輸入一組特徵 也就是變數x 的時候,模型輸出乙個 值y h x 我們要求這個 值盡可能的準確,那麼怎麼樣才能做到盡可能準確呢?其中 表示實際值,表示 值 其中 表示實際值...