一、機器學習一般步驟
二、公式中符號解釋
m:訓練樣本的數量
x:輸入變數
y:輸出變數
(x,y):乙個訓練樣本資料
(x(i),y(i)):第i行訓練樣本資料
例如**房價與房子大小以及臥室個數、樓層個數、房齡之間關係的訓練樣本,如下表
size
bed room num
floors num
age of home
price
210451
45460
141632
40232
153432
30315
8342130
178………
……三、單一特徵線性回歸又稱一元線性回歸
1、例如**房價與房屋大小的訓練集(traning set)如下表:xy
2104
4601416
2321534
315834
178…
…2、通過假設函式(hypothesis):hθ(x)=θ0+θ1x近似擬合訓練集資料,進而通過假設函式進行資料**,如下圖
3、確定了假設函式,我們下一步的目標是選擇合適的θ0,θ1使得hθ(xi)與yi最接近,將其用數學語言表示即如下式所示:
其中為什麼取平方差累加之後的平均值時候,多乘以1/2,我的理解是主要在後面的梯度下降法中求偏導數的時候,這個1/2剛好可以把平方2消除,方便計算。
4、由此得到了代價函式(平方誤差代價函式)j(θ0,θ1),數學表示式如下:
那麼,下面的目標就是確定θ0,θ1使得j(θ0,θ1)收斂於最小值
總結
簡單的單特徵線性回歸演算法有如下要點:
1、假設函式(hypothesis):hθ(x)=θ0+θ1x
2、引數(parameter): θ0,θ1
3、代價函式(cost function):
4、目標(goal):minimize j(θ0,θ1)
機器學習 一元線性回歸演算法
線性回歸 線性回歸擬合原理 fit方法 ridge回歸 損失函式 l2 lasso回歸 損失函式 l1 懲罰項係數alpha高,菱形面積小,alpha低,菱形面積大 elastic net 損失函式 l1 l2 舉例 lasso回歸是隨機梯度下降 l1,此處選擇懲罰項係數為0.15 與 之對比的sg...
機器學習(四)一元線性回歸
h x 0 1 xh theta x theta 0 theta 1x h x 0 1 x這個方程對於的影象是一條直線,稱為回歸線。其中 1 theta 1 1 為回歸線的斜率,0 theta 0 0 為回歸線的截距 j 0,1 1 2m i 1m yi h xi 2j theta 0,theta ...
Python 機器學習 一元線性回歸
一元線性回歸模型很簡單 y1 ax b y1為實際值,為正態的誤差。y2 ax b,y2為 值。y1 y2。def model a,b,x return a x b 這裡將整組資料的 結果方差作為損失函式。j a,b sum y1 y2 2 n def cost a,b,x,y x is argu,...