線性回歸是利用數理統計中回歸分析,來確定兩種或兩種以上變數間相互依賴的定量關係的一種統計分析方法,運用十分廣泛。其表達形式為y = w』x+e,e為誤差服從均值為0的正態分佈。回歸分析中,只包括乙個自變數和乙個因變數,且二者的關係可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。如果回歸分析中包括兩個或兩個以上的自變數,且因變數和自變數之間是線性關係,則稱為多元線性回歸分析。
下圖為一元線性回歸,它是模擬出一條直線,讓已知的資料點盡量落在直線上或直線周圍。
用公式表示為:f(x
)=wx
+bf(x)=wx+b
f(x)=w
x+bw為係數,b為截距。
當這個概念推廣到x有n個的時候,即y的最終結果由多個x共同影響,此時有:
f (x
)=w1
x1+w
2x2+
...+
wnxn
+bf(x)=w_1x_1+w_2x_2+...+w_nx_n+b
f(x)=w
1x1
+w2
x2
+...
+wn
xn+
b設該資料集有m條資料,每條資料都對應著n個x和乙個y,則x整體可以用m×n的矩陣來表示,y整體可以用m×1的矩陣來表示。對於單獨一條資料,x可以用m×1的矩陣來表示,而這個y就是乙個值。
而對於這個單獨的資料而言,可以認為f(x
)=w1
x1+w
2x2+
...+
w4x4
+w5x
5+bf(x)=w_1x_1+w_2x_2+...+w_4x_4+w_5x_5+b
f(x)=w
1x1
+w2
x2
+...
+w4
x4+
w5x
5+b
令b =w
0x0其
中w0=
b,x0
=1b = w_0x_0 其中w_0 = b ,x_0 = 1
b=w0x
0其中
w0=
b,x0
=1有f(x
當由單獨的一條資料推廣到全體資料,我們可以得到
f (x
)=wx
tf(x) = wx^t
f(x)=w
xt但是這個通過w和t得到的**值f(x)和實質的y是有差距的,對於他們的平方誤差為
c os
s=∑i
=1m(
wxit
−yi)
2coss = \sum_^m(wx_i^t-yi)^2
coss=i
=1∑m
(wx
it−
yi)2
最終讓coss最小,解出w即可。
w最優解的表示式為:(重點!!!)
這樣就可以根據給出的資料集得到函式模型,然後把新的x輸入(這裡維度增加了1,因為x0 = 1),就可以得到新的**值y。
注:對單獨一條資料來講,我這裡把x和w都設定為行向量1×n即
x = [1 2 3]
w = [1 2 3]
也可以設定為列向量,這樣的話這樣x整體和y整體會發生變化,f(x)也會變化,此時f(x
)=xt
w或者f
(x)=
wtxf(x) = x^tw或者f(x) = w^tx
f(x)=x
tw或者
f(x)
=wtx
因為對於某個資料來講,x和w變成了如3×1的陣列,將其中乙個轉置成1×3的陣列後再和另外乙個3×1的相乘,就可以得到乙個確切的數。這樣重新設定coss,計算出w即可。詳情參照下文另外一種向量表示
機器學習 線性回歸
可以說基本上是機器學習中最簡單的模型了,但是實際上其地位很重要 計算簡單 效果不錯,在很多其他演算法中也可以看到用lr作為一部分 先來看乙個小例子,給乙個 線性回歸是什麼 的概念。圖來自 2 假設有乙個房屋銷售的資料如下 面積 m 2 銷售價錢 萬元 123 250 150 320 87 160 1...
機器學習(線性回歸)
在機器學習中,回歸 分類和標註共同構成了監督學習技術。監督學習 supervised learning 是機器學習在工業界應用最廣的乙個領域分支。在學術界中也是研究最多的領域之一。大家都知道的資料探勘十大經典演算法中,監督學習技術佔據6席。方法 自變數 特徵 因變數 結果 關係 回歸演算法是試圖採用...
機器學習 線性回歸
line fitter linearregression 建立模型 line fitter.fit temperature,sales 傳入引數 sales predict line fitter.predict temperature 模型 直線 直線上會有loss 計算loss時 要使用平方距離...