首先,svm和lr(logistic regression)都是分類演算法。svm通常有4個核函式,其中乙個是線性核,當使用線性核時,svm就是linear svm,其實就是乙個線性分類器,而lr也是乙個線性分類器,這是兩者的共同之處。
不同之處在於,第一,lr只要求計算出乙個決策面,把樣本點分為兩類就行了,不要求分得有多好;而linear svm要求決策面距離兩個類的點的距離要最大。
第二,linear svm只考慮邊界線附近的點,而lr要考慮整個樣本所有的點,如果增加一些樣本點,只要這些樣本點不在linear svm的邊界線附近(即在支援向量外),linear svm的決策面是不會變的,而lr的決策面是會發生變化的,即lr中每個樣本點都會對決策面產生影響。
第三,由於指導思想的不同,兩者的loss function是不同的。
LR和SVM的聯絡和區別
1 lr和svm都是分類演算法 2 如果不考慮核函式,lr和svm都是線性分類演算法,也就是說他們的分類決策面都是線性的。這裡要先說明一點,那就是lr也是可以用核函式的,至於為什麼通常在svm中運用核函式而不在lr中運用,後面講到他們之間區別的時候會重點分析。總之,原始的lr和svm都是線性分類器,...
LR 和 SVM 的區別與聯絡
在很大一部分人眼裡,lr是回歸演算法。我是非常不贊同這一點的,因為我認為判斷乙個演算法是分類還是回歸演算法的唯一標準就是樣本label的型別,如果label是離散的,就是分類演算法,如果label是連續的,就是回歸演算法。很明顯,lr的訓練資料的label是 0或者1 當然是分類演算法。其實這樣不重...
LR和SVM的區別與聯絡
lr和svm本質不同在於loss function的不同 lr的損失函式是cross entropy loss,svm的損失函式是hinge loss,兩個模型都屬於線性分類器,而且效能相當。區別在於 換用其他的loss函式的話,svm就不再是svm了。正是因為hinge loss的零區域對應的正是...