指通過讓機器學習大量帶有標籤的樣本資料,訓練出乙個模型,並使該模型可以根據輸入得到相應輸出的過程。通過已有的一部分輸入資料與輸出資料之間的對應關係,生成乙個函式,將輸入對映到合適的輸出,例如分類。或者回歸。
常見應用:垃圾郵件問題、判斷乳腺癌良性惡性等。
詳細內容見:一文看懂監督學習
從無標註的資料中學習資料的統計規律或者說內在結構的機器學習,主要包括聚類、降維、概率估計,對應的輸出是類別,轉換,概率。它無法量化效果,沒有明確目的。
詳細內容見:一文看懂無監督學習
資料:
任務:**房子**
單變數線性回歸模型描述:
通過代價函式把最有可能的直線與我們的資料擬合。
同上面提到的例子,列出假設函式:
通過代價函式找引數:
ps:平方誤差函式適用於大多數線性回歸問題。
j函式到最小值時,得到使直線擬合的引數。
乙個引數時j函式是碗形;
若有兩個引數,形狀則成為3d的碗狀曲面:
用等高線圖展示如下
中心點是曲面低谷,即j函式最小值處,這時擬合效果最好:
用於最小化代價函式。
在梯度下降的過程中,從最快下坡的方向往下走;
但方向不同,可能會得出不一樣的區域性最優解,如圖:
容易陷入區域性最優,是梯度下降法的一大特點。
數學原理:
需要真正實現同時更新引數。
當學習速率太小時,梯度下降得會很慢;當學習速率太大時,引數可能無法收斂或發散。
如果引數已經處在乙個區域性最優點,下一步梯度下降該怎樣進行呢?
答案是不會再改變。因為:
當學習速率不變時,同樣可以下降到區域性最優點。
這就是梯度下降演算法。
將梯度下降法與代價函式相結合,得到線性回歸的演算法。它可以用直線模型來擬合資料。
分別對引數1、引數2求導:
就這樣更新引數至直線模型擬合資料。
機器學習系列(吳恩達版)
監督學習 supervised learning 給定訓練集後,通過演算法讓機器學習分類 標識等操作。無監督學習 unsupervised learning 根據沒有被標記的訓練樣本,來自動完成分類等操作。支援向量機 support vector machine,簡稱svm 是一類按監督學方式對資料...
吳恩達機器學習筆記(12 異常檢測)
什麼是異常檢測?假想你是乙個飛機引擎製造商,當你生產的飛機引擎從生產線上流出時,你需要進行 qa 質量控制測試 而作為這個測試的一部分,你測量了飛機引擎的一些特徵變數,比如引 擎運轉時產生的熱量,或者引擎的振動等等。這樣一來你就有了乙個資料集,從 假如有一天,你生產了乙個新的飛機,那麼你想檢測這個飛...
吳恩達機器學習筆記
為了解決實際生活中的問題,我們通常需要乙個數學模型。比如,小明有乙個房子 他想賣掉房子 為了知道房子的 小明收集了該地區近兩年的房屋交易 他發現房屋 與房屋大小呈正相關,所以他畫了了一幅圖 小明的房屋大小用紅色的 代替。可見和小明房屋一樣大小的房子並不存在,而類似的房屋 又有很大差別,如此小明決定用...