橫軸表示函式間隔,我們從兩個方面來理解函式間隔:
1)正負
當樣本被正確分類時,y(wx+b)>0;當樣本被錯誤分類時,y(wx+b)<0。
2)大小
y(wx+b)的絕對值代表樣本距離決策邊界的遠近程度。y(wx+b)的絕對值越大,表示樣本距離決策邊界越遠。
因此,我們可以知道:
當y(wx+b)>0時,y(wx+b)的絕對值越大表示決策邊界對樣本的區分度越好
當y(wx+b)<0時,y(wx+b)的絕對值越大表示決策邊界對樣本的區分度越差
從圖中我們可以看到,
1)0-1損失
當樣本被正確分類時,損失為0;當樣本被錯誤分類時,損失為1。
2)感知機損失函式
當樣本被正確分類時,損失為0;當樣本被錯誤分類時,損失為-y(wx+b)。
3)合頁損失函式
當樣本被正確分類且函式間隔大於1時,合頁損失才是0,否則損失是1-y(wx+b)。
相比之下,合頁損失函式不僅要正確分類,而且確信度足夠高時損失才是0。也就是說,合頁損失函式對學習有更高的要求。
看來是時候買本「統計學習方法」了
參考:
SVM 合頁損失函式
svm的損失函式是什麼?怎麼理解 在學習支援向量機的過程中,我們知道其損失函式為合頁損失函式。至於為什麼叫這個名字,李航老師的 統計學習方法 上是這麼說的 由於函式形狀像乙個合頁,故命合頁損失函式。下圖為合頁損失函式的影象 取自 統計學習方法 橫軸表示函式間隔,我們從兩個方面來理解函式間隔 1 正負...
交叉熵損失和合頁損失(分析)
合頁損失函式 是一種帶有置信度的損失函式。ps 可滿足性比較容易達到。ps 用svm的置信區間來進行比較。它的通用表示式為 帶有軟間隔的線性svm,它最初的損失函式 經過約束變形得到 函式進一步可寫為 進一步 svm的損失函式可以看為l2正則項和合頁損失函式之和!ps 直接對合頁損失進行優化很難,所...
svm損失函式
svm 支援向量機 和softmax的區別在於損失函式的不同,用公式可以描述為 其中 syi 表示真實類別的得分,sj 表示其他類別的得分。表示為邊界值,li 表示某輸入影象的損失值 根據損失函式做如下討論 1.如果在累加時去掉j yij yi 的條件,是否可行?答案顯而易見,不可行。這樣損失值永遠...