監督學習應用--梯度下降
1.監督學習的定義:監督學習是指:利用一組已知類別的樣本調整分類器的引數,使其達到所要求效能的過程,也稱為監督訓練或有教師學習。
監督學習是從標記的訓練資料來推斷乙個功能的機器學習任務。訓練資料報括一套訓練示例。
在監督學習中,每個例項都是由乙個輸入物件(通常為向量)和乙個期望的輸出值(也稱為監督訊號)組成。監督學習演算法是分析該訓練資料,並產生乙個推斷的功能,其可以用於對映出新的例項。乙個最佳的方案將允許該演算法來正確地決定那些看不見的例項的類標籤。
這就要求學習演算法是在一種「合理」的方式從一種從訓練資料到看不見的情況下形成。
2.自動駕駛
3.監督型演算法:回歸問題,測量值是連續的
4.房價資料:
已知房子的價錢和年代
問題:給你訓練集的資料,是否能夠**房價和房子大小
m:表示訓練樣本的數量
x:輸入變數(特徵)
y:輸出變數(目標)
(x,y):表示乙個樣本
i:第i行和列
n:特徵的數目
先找乙個訓練集合,學習型演算法,生成乙個輸出函式h(稱為假設--接受任務),輸出房價的估計
①如何表示假設:
x1房子大小,x2臥室數量,
假設方程h(x)=q0+q1x1+q2x2(q是學習演算法的引數 代表實數 是我們需要得到的值)
假設類可以是各種形式的
②如何選擇假設的引數:
基於訓練集 做出假設 讓演算法得到乙個**值和真實值的差值最小的結果
目標:最小二乘*(1/2)的和最小
③:演算法實現②的目標:
一.搜尋演算法:先給引數向量乙個初始值,(比如初始化乙個0向量),改變引數使值不斷變小
梯度下降演算法:
三維地表狀,那種下山的方式能更快?環顧360選取路徑就成了關鍵
下降的結果依賴於擦引數初始值,這樣找區域性最優結果
迭代更新引數值(偏導數)
梯度下降演算法應用:(牛頓下山法)
下降規則:
①只有一組訓練樣本的情況:
②鏈式求導函式公式: 最小二乘*(1/2)的和最小
③梯度會不斷減小 接近真實值
④得到最小二乘擬合
⑤檢驗收斂:值的波動不再大
⑥梯度演算法如何決定最佳路徑:偏導數計算得出
⑦分類:
批梯度下降:代表每次要遍歷於整個訓練集 效率低
隨機梯度下降:(增量梯度下降)適合訓練集特別大,你可能會走其他方向,但總體會走向最近,查詢速度快
a=:1 設a=1
a=1a的真值是1
50:48
機器學習 監督學習應用(梯度下降)
監督學習應用 梯度下降 1.監督學習的定義 監督學習是指 利用一組已知類別的樣本調整分類器的引數,使其達到所要求效能的過程,也稱為監督訓練或有教師學習。監督學習是從標記的訓練資料來推斷乙個功能的機器學習任務。訓練資料報括一套訓練示例。在監督學習中,每個例項都是由乙個輸入物件 通常為向量 和乙個期望的...
監督學習應用 梯度下降
andrew ng 機器學習筆記 這一系列文章文章是我再 andrew ng的stanford公開課之後自己整理的一些筆記,除了整理出課件中的主要知識點,另外還有一些自己對課件內容的理解。同時也參考了很多優秀博文,希望大家共同討論,共同進步。參考博文 本節課程內容包括 1 linear regres...
監督學習應用 梯度下降
andrew ng 機器學習筆記 這一系列文章文章是我再 andrew ng的stanford公開課之後自己整理的一些筆記,除了整理出課件中的主要知識點,另外還有一些自己對課件內容的理解。同時也參考了很多優秀博文,希望大家共同討論,共同進步。參考博文 本節課程內容包括 1 linear regres...