1.下面是我們慣例的公式,有假設函式、引數和代價函式以及我們優化的目標
和上節課不同的是,對代價函式圖形化的時候,這次課我們要保留全部引數theta0和theta1,這裡是關於房價的訓練集,之前我們只有乙個引數theta1,畫出來的形狀是乙個碗狀函式,當我們有兩個引數的時候,j(theta0,theta1)也是乙個碗狀的圖形,而且與訓練集有關,如下圖所示的代價函式:
這是乙個3d的曲面,座標軸為theta1和theta0,當你改變theta0和theta1這兩個引數的時候,就會得到不同的代價函式j(theta0,theta1)的值,豎軸就是j(theta0,theta1)的值,類似乙個碗狀的形狀
吳恩達機器學習 55過擬合問題 56代價函式
目前所學的學習演算法 線性回歸和邏輯回歸 一 過度擬合 例子 線性擬合 房價 欠擬合,具有高偏差 擬合的很好 過擬合,具有高方差 通常是變數太多,擬合出來的影象看起來很符合資料集,而且代價函式接近0,但是它無法泛化到新的資料集中 二 解決過度擬合 1 減少變數的數量 2 正則化 保留所有的特徵變數,...
吳恩達機器學習 代價函式的總結
在講代價函式之前我們說一下假設函式。假設函式是通過訓練得出模型,把模型表示成乙個函式,來對輸入變數 出輸出變數的。例如 對於乙個單變數線性回歸模型,假設函式是 0 1?除輸入變數和輸出變數之外的那兩個引數是可以任意改變的。我們做的是改變這些引數,讓我們模型的誤差更小。當然單變數線性回歸問題中,那兩個...
吳恩達機器學習問題2
吳恩達課程中遇到的問題 第三週程式設計題 問題1 如果有大佬麻煩告知下 謝謝 就是為啥寫的 m,n size x 但是size x 是118 28,但是 m n 是 100 2?問題2 代價函式costfuction裡,為啥計算梯度grad的時候,明明公式是 最後乘的是x,但是 程式卻要寫成x 即x...