在講代價函式之前我們說一下假設函式。
假設函式是通過訓練得出模型,把模型表示成乙個函式,來對輸入變數**出輸出變數的。
例如:對於乙個單變數線性回歸模型,假設函式是 ℎ?(?) = ?0 + ?1?
除輸入變數和輸出變數之外的那兩個引數是可以任意改變的。我們做的是改變這些引數,讓我們模型的誤差更小。
當然單變數線性回歸問題中,那兩個引數便是斜率和截距。我們引數的選擇直接決定了訓練結果的準確程度。
模型中的**值和訓練集中實際值之間的差距成為建模誤差。
我們訓練的目標便是可以選出使建模誤差平方和最小的模型引數。
當然建模誤差平方和就是數學中講的最小二乘法。
那麼這裡我們可以定義乙個關於上面那兩個引數的建模平方和函式,即為代價函式。代價函式就是建模誤差的平方和除以兩倍的資料集(m)長度。
因此這種線性回歸的目標就成為求出使建模誤差平方和的1/2m最小值的引數?0
和?1。
這種代價函式也被稱為平方誤差函式或平方誤差代價函式。
其實代價函式有很多,只不過平方誤差函式對於大多數問題,尤其是回歸問題是乙個很好的選擇。
通過數學知識,我們可以得知代價函式對於上面那兩個引數形成的影象應該是乙個碗狀的曲面圖。具體知識請看高數下的多元函式。由於三維圖不容易畫,所以通常我們用等高線圖來表示代價函式。
吳恩達機器學習9 代價函式 2
1.下面是我們慣例的公式,有假設函式 引數和代價函式以及我們優化的目標 和上節課不同的是,對代價函式圖形化的時候,這次課我們要保留全部引數theta0和theta1,這裡是關於房價的訓練集,之前我們只有乙個引數theta1,畫出來的形狀是乙個碗狀函式,當我們有兩個引數的時候,j theta0,the...
《吳恩達機器學習》18 機器學習總結
原機器學習最後一章的內容為 文字識別,但是筆者在看了這一章的課程之後發現其內容可能實際應用性不大,課程講的ocr識別的方法已經不適合目前主流的演算法 目前主流使用cnn 卷積神經網路 故省略這一章節的筆記,改為對整個機器學習課程的總結。1 線性回歸 線性回歸是利用數理統計中回歸分析,來確定兩種或兩種...
吳恩達機器學習私人總結(1)
監督學習的回歸問題上做了介紹,講解的是房價問題 採用的代價函式為全域性的誤差計算,並將計算的引數結果同時更新,為批梯度下降法。批梯度下降法在多個引數時的運算過程 有時候,為了讓資料的影響程度,或者說是具有一致性,需要資料預處理,集中在均值0附件即可 在學習率問題上,採用倍數為3從0.001處開始進行...