時隔好久沒有再拾起機器學習了,今日抽空接著學
(上圖為原始資料)
這裡套用以前logistic回歸的模板改一下下。。
load('ex6data1.mat');
theta=rand(3,1);
[m,n]=size(x);
x=ones(m,1); % 新增常量
x=[x x];
c=1;
for i=1:10000 % 擬合次數
theta=theta-(((x).*(x*theta>=-1))'*(1-y)+((-x).*(x*theta<=1))'*y).*c; % 先不考慮正則化項
end
c值設為不同的數值,得到的決策邊界如下:
由此可見,c值越大的話,資料錯分的現象會減少,但是不會得到更貼合自然(間隔大)的決策邊界。
(梨今天學習也要加油呢,手動比心~❥)
吳恩達機器學習筆記 SVM
001.svm的優化目標及損失函式 跟其他直接從margin出發不同,這裡從regression 的交叉熵損失函式引入,對sigmoid函式做了一點近似的拉直變形,直接引出了svm的損失函式 002.大間隔的最優解 有超引數c開始討論,當c 足夠大時,要minimize目標函式,則需要 第一項等於0...
吳恩達老師課程機器學習筆記
無監督學習 線性回歸 代價函式j 主要演算法 1.監督學習 supervised learning 2.無監督學習 unsupervised learning 其他演算法 1.強化學習 reinforcement learning 2.推薦演算法 recommender systems right ...
吳恩達機器學習筆記一
機器學習分類 監督學習 無監督學習 強化學習 深度學習 監督學習 回歸問題,意指要 乙個連續的輸出值,比如房價。分類問題,目標是 離散值輸出 0 or 1 比如 腫瘤是良性或惡性,可以有乙個特徵 腫瘤大小,也可以兩個特徵 年齡和腫瘤大小,或者無限多特徵 支援向量機。分類是將一些例項資料分到合適的類別...