在研究兩個變數之間的關係時,可以用回歸分析的方法進行分析。當確定了描述兩個變數之間的回歸模型後,就可以使用最小二乘法估計模型中的引數,進而建立經驗方程.
簡單地說,最小二乘的思想就是要使得觀測點和估計點的距離的平方和達到最小.這裡的「二乘」指的是用平方來度量觀測點與估計點的遠近(在古漢語中「平方」稱為「二乘」),「最小」指的是引數的估計值要保證各個觀測點與估計點的距離的平方和達到最小.
在我們研究兩個變數
(x, y)
之間的相互關係時,通常可以得到一系列成對的資料
(x1,y1
、x2,y2... xm
,ym);將這些資料描繪在
x-y直角座標系中(如圖
1),若發現這些點在一條直線附近,可以令這條直線方程如(式
1-1)。
y計= a0
+ a1 x(
式1-1)
其中:a0
、a1
是任意實數
為建立這直線方程就要確定a0和
a1,應用《最小二乘法原理》,將實測值
yi與利用(式
1-1)
計算值(y計=
a0+a1x)
的離差(yi-y
計)的平方和`〔
∑(yi
- y計
)2〕最小為
「優化判據」。
令: φ =∑(yi
- y計)2(
式1-2) 把(
式1-1)代入(
式1-2)
中得:
φ = ∑(yi
- a0 - a1 xi)2(式
1-3)
當∑(yi-y計)
平方最小時,可用函式φ對
a0、a1求偏導數,令這兩個偏導數等於零。
式1-4)
式1-5)
亦即:m a0
+ (∑x
i ) a
1 = ∑yi (式
1-6)
(∑xi
) a0 + (∑x
i2 ) a
1 = ∑(x
i, yi)(
式1-7)
得到的兩個關於a0、
a1為未知數的兩個方程組,解這兩個方程組得出:
a0= (∑y
i)/ m - a
1(∑x
i) / m (
式1-8)
a1= [∑x
i yi - (∑x
i ∑y
i)/ m] / [∑x
i2 - (∑x
i)2 / m)](式
1-9)
這時把a0、a1
代入(式1-1)中,
此時的(
式1-1)
就是我們回歸的元線性方程即:數學模型。
在回歸過程中,回歸的關聯式是不可能全部通過每個回歸資料點
(x1, y1
、x2,y2...xm,ym),
為了判斷關聯式的好壞
,可借助相關係數
「r」,統計量
「f」,剩餘標準偏差
「s」進行判斷;
「r」越趨近於
1 越好;
「f」的絕對值越大越好;
「s」越趨近於
0越好。
r = [∑xiyi
-m (∑x
i / m)(∑y
i / m)]/ sqr(式
1-10)*在
(式1-1)中,m
為樣本容量,即實驗次數;xi、
yi分別任意一組實驗x、
y的數值。
最小二乘法
include stdafx.h include include const int n 2 const int m 5 int sgn double x void lss double g n 1 int xm,int xn,double x m double p,double w m lss函式...
最小二乘法
最小二乘法 least squares analysis 是一種 數學 優化 技術,它通過 最小化 誤差 的平方和找到一組資料的最佳 函式 匹配。最小二乘法是用最簡的方法求得一些絕對不可知的真值,而令誤差平方之和為最小。最小二乘法通常用於 曲線擬合 least squares fitting 這裡有...
最小二乘法
一.背景 通過這段描述可以看出來,最小二乘法也是一種優化方法,求得目標函式的最優值。並且也可以用於曲線擬合,來解決回歸問題。難怪 統計學習方法 中提到,回歸學習最常用的損失函式是平方損失函式,在此情況下,回歸問題可以著名的最小二乘法來解決。看來最小二乘法果然是機器學習領域做有名和有效的演算法之一。二...