(1)監督學習中的回歸問題案例房價**
(2)監督演算法的工作方式
案例中:m表示訓練集的數量,x代表特徵/輸入變數,y代表目標變數/輸出變數,(x,y)代表例項,(x(i),y(i))代表第i個觀察例項,h代表假設/函式/輸入到輸出的對映。
(3)房價**的一種表達方式:h(θ)=θ0+θ1x,只有乙個變數,所以成為當變數線性回歸問題。
(1)對於回歸問題常用的代價函式是平方誤差代價函式:
我們的目標選取合適的引數θ使得誤差函式最小,即直線最逼近真實情況。
需要注意:引數是要同時更新的;不要算出乙個倒數更新乙個倒數,再用更新後的式子去計算其他倒數,這樣是不對的。
其中α叫學習率,表示沿著下降程度最大的方向邁出的步子大小。
(1)梯度下降法可以最小化任何代價函式,而不僅僅侷限於線性回歸中的代價函式。
(2)當越來越靠近區域性最小值時,梯度值會變小,所以即使學習率不變,引數變化的幅度也會隨之減小。
(3)學習率過小時引數變化慢,到達最優點的時間長,學習率大時,可能導致代價函式無法收斂,甚至發散。
(4)梯度就是某一點的斜率。
吳恩達《機器學習》課程總結 19 總結
線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...
吳恩達《機器學習》課程總結(19)總結
線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...
吳恩達機器學習筆記2 單變數線性回歸
線性回歸演算法 用直線來擬合資料 h0 x 0 1 x,要想h0 值 接近y 實際值 也就是使得 值和實際值的平方誤差和最小,可用平方代價誤差函式來解決。平方代價誤差函式說明 平方是為了保證正值,二分之一m的目的是求導 計算變化率 後消掉係數。假設h,引數 代價函式j,優化目標 如何進行機器學習?如...