主要內容:
線形回歸
梯度下降
正規方程組
線形回歸:
問題:**房價
定義概念:
m: 訓練數量
x: 輸入變數,或特徵
y: 輸出變數,或目標變數
(x,y): 訓練樣本
(xi,yi): 第i個樣本
通常做法:
訓練集-〉學習演算法-〉h**函式
表示**函式:
h(x)=a+a1*x
h(x)=ha(x)=a+a1*x1+a2*x2
...define x0=1
h(x)=a0*x0+a1*x1+...+an*xn
什麼樣的**函式才是最優解:使得下列函式值最小:
j(x) = ( ha(x1) - y1 )*( ha(x1) - y1 ) + ( ha(x2) - y2 )*( ha(x2) - y2 )
+...+( ha(xi) - yi )*( ha(xi) - yi )+...+
( ha(xm) - ym )*( ha(xm) - ym )
如何獲得該函式:
梯度下降法:
形象的說,我們把所有值都取到,就會獲得乙個曲面,我們隨機選乙個點,然後開始向下走,直到走到最低點,我們也稱收斂,這就是最優解。
演算法的大致實現是,站在乙個點,然後去求偏導數,即可獲得最陡的方向,向下走一步,然後繼續求偏導數。
我們把引數a當成乙個向量(a0,a1,a2...ai...an),將其初始化為(0,0,...0),然後開始不斷地改變這個向量,直到上面
監督學習應用 梯度下降
andrew ng 機器學習筆記 這一系列文章文章是我再 andrew ng的stanford公開課之後自己整理的一些筆記,除了整理出課件中的主要知識點,另外還有一些自己對課件內容的理解。同時也參考了很多優秀博文,希望大家共同討論,共同進步。參考博文 本節課程內容包括 1 linear regres...
監督學習應用 梯度下降
andrew ng 機器學習筆記 這一系列文章文章是我再 andrew ng的stanford公開課之後自己整理的一些筆記,除了整理出課件中的主要知識點,另外還有一些自己對課件內容的理解。同時也參考了很多優秀博文,希望大家共同討論,共同進步。參考博文 本節課程內容包括 1 linear regres...
監督學習應用 梯度下降筆記
第1 2節主要就是講了線性回歸的東西。課程中用了兩種方法來解決引數求解的問題 1是梯度下降的方法 2是稱為隨機 增量 梯度下降的方法。首先我們來看下面這張圖 我們已知一些 x,y 點的分布。現在我假設有一已知的x,想求期望的y是多少。假設現在我能 用y h x 表示x和y的關係。那麼輸入x,輸出y就...