第1、2節主要就是講了線性回歸的東西。課程中用了兩種方法來解決引數求解的問題:1是梯度下降的方法;2是稱為隨機(增量)梯度下降的方法。
首先我們來看下面這張圖
我們已知一些(x,y)點的分布。現在我假設有一已知的x,想求期望的y是多少。
假設現在我能 用y=h(x)表示x和y的關係。那麼輸入x,輸出y就能得到想要的結果。那麼如何得到h(x)的關係式呢?
先討論最簡單的線性關係的時候,即
當然,實際中碰到的情況可能沒有這麼簡單,可能有多個輸入
那這麼多引數,怎麼選擇它們的值呢?
監督學習應用 梯度下降
andrew ng 機器學習筆記 這一系列文章文章是我再 andrew ng的stanford公開課之後自己整理的一些筆記,除了整理出課件中的主要知識點,另外還有一些自己對課件內容的理解。同時也參考了很多優秀博文,希望大家共同討論,共同進步。參考博文 本節課程內容包括 1 linear regres...
監督學習應用 梯度下降
andrew ng 機器學習筆記 這一系列文章文章是我再 andrew ng的stanford公開課之後自己整理的一些筆記,除了整理出課件中的主要知識點,另外還有一些自己對課件內容的理解。同時也參考了很多優秀博文,希望大家共同討論,共同進步。參考博文 本節課程內容包括 1 linear regres...
監督學習應用和梯度下降
主要內容 線形回歸 梯度下降 正規方程組 線形回歸 問題 房價 定義概念 m 訓練數量 x 輸入變數,或特徵 y 輸出變數,或目標變數 x,y 訓練樣本 xi,yi 第i個樣本 通常做法 訓練集 學習演算法 h 函式 表示 函式 h x a a1 x h x ha x a a1 x1 a2 x2 d...