SVM與LR的異同點

2021-10-04 23:35:15 字數 388 閱讀 6435

相同點:

(1)都是監督學習演算法

(2)都是分類演算法,都是判別模型 p(x|y)

(3)若svm不考慮核函式,都是線性分類演算法,決策面是線性的

不同點:

(1)測度不同,svm是距離測度,基於幾何間隔最大化作為度量原則;lr是概率測度,計算樣本概率,用極大似然估計計算引數。因此,二者的loss function不同

(2)樣本點對分類決策面的影響不同。svm只有支援向量的樣本(區域性邊界點)對最優決策面有影響,其他樣本點對決策面沒有影響。lr全域性樣本點對引數估計都有影響

(3)解決非線性分類的問題,svm採用核函式,lr不需要採用核函式

(4)svm 損失函式裡自帶正則化項,所以svm是結構風險最小化演算法;lr損失函式在解決過擬合時要加正則化項

LR與SVM的異同

1.本質上是其loss function不同 邏輯回歸採用的是logistical loss,svm採用的是hinge loss。可以看出,二者的唯一區別就是對於單個資料點,計算損失的方法不同。logistic regression中的log loss 而svm中的hinge loss。可以看出,二...

LR與SVM的異同

在大大小小的面試過程中,多次被問及這個問題 請說一下邏輯回歸 lr 和支援向量機 svm 之間的相同點和不同點 第一次被問到這個問題的時候,含含糊糊地說了一些,大多不在點子上,後來被問得多了,慢慢也就理解得更清楚了,所以現在整理一下,希望對以後面試機器學習方向的同學有所幫助 至少可以瞎扯幾句,而不至...

LR與SVM的異同

原文 在大大小小的面試過程中,多次被問及這個問題 請說一下邏輯回歸 lr 和支援向量機 svm 之間的相同點和不同點 第一次被問到這個問題的時候,含含糊糊地說了一些,大多不在點子上,後來被問得多了,慢慢也就理解得更清楚了,所以現在整理一下,希望對以後面試機器學習方向的同學有所幫助 至少可以瞎扯幾句,...