說明:本文是本人用於記錄學習吳恩達機器學習的學習筆記,如有不對之處請多多包涵.
一、模型的描述:
下面的這張是對於課程中一些符號的基本的定義:
吳老師列舉的最簡單的單變數線性回歸方程:
二、代價函式
這節課的主要目標是如何選擇這個模型的兩個引數
下圖是吳老師的分析怎麼將模型轉化求解需要的兩個引數:
h(x)的函式兩個引數o0設定為0,將函式設定為過原點的直線,之後斜率取不同的值,代入公式,繪製出下圖右邊的代價函式的圖形。(看了這一節的課程感覺回到了高中時代,當年的數學好像就是有這樣的求解)
這次課程的主要目標是找到最優化的代價函式
h(x)的兩個引數取不同的數值,繪製j函式3d模式圖如下:
使用等高線圖繪製如下:
使用梯度下降演算法來使我們要求解的j函式最小化,
梯度下降演算法定義見下圖:α是學習率控制,梯度下降的速度,值越大下降的速度越快,需要注意的一點是θ0,θ1這兩個引數在更新的時候需要同時更新。
機器學習筆記 吳恩達 一 單變數線性回歸
代價函式詳解 梯度下降法 個人blog 我們有關於房屋面積和房屋 的資料集,現在想擬合一條直線通過房屋的面積來 房屋 這條直線應該盡可能的符合已有的資料。這裡我們簡單的假設該直線的方程為 h x x h x theta x h x x其中x表示房屋的面積,h x 表示 出的房價。有了這個假設函式我們...
吳恩達機器學習筆記2 單變數線性回歸
線性回歸演算法 用直線來擬合資料 h0 x 0 1 x,要想h0 值 接近y 實際值 也就是使得 值和實際值的平方誤差和最小,可用平方代價誤差函式來解決。平方代價誤差函式說明 平方是為了保證正值,二分之一m的目的是求導 計算變化率 後消掉係數。假設h,引數 代價函式j,優化目標 如何進行機器學習?如...
吳恩達機器學習系列1 單變數線性回歸
今天是第二部分 單變數線性回歸,即監督學習中基於單個特徵輸入的線性回歸演算法。該部分主要了解的內容是單變數線性回歸演算法的模型表示,損失函式以及用於求解的梯度下降方法,這實際上也展示了乙個完整的監督學習過程。1 model representation 在了解模型表示之前,我們需要明確監督學習演算法...