">的類別被判定為1;否則判定為-1。
所以如果,則認為
的分類結果是正確的,否則是錯誤的。且
的值越大,分類結果的確信度越大。反之亦然。
所以樣本點
與超平面
之間的函式間隔定義為
但是該定義存在問題:即
和同時縮小或放大m倍後,超平面並沒有變化,但是函式間隔卻變化了。所以,需要將
的大小固定,如
,使得函式間隔固定。這時的間隔也就是幾何間隔 。
幾何間隔的定義如下
實際上,幾何間隔就是點到超平面的距離。想像下中學學習的點
到直線的距離公式
所以在二維空間中,幾何間隔就是點到直線的距離。在三維及以上空間中,就是點到超平面的距離。而函式距離,就是上述距離公式中的分子,即未歸一化的距離。
定義訓練集到超平面的最小幾何間隔是
svm訓練分類器的方法是尋找到超平面,使正負樣本在超平面的兩側,且樣本到超平面的幾何間隔最大。
所以svm可以表述為求解下列優化問題
以上內容在《統計學習方法》中,均有詳細的講解。
SVM支援向量機的理解
support vector machine 為什麼一定要研究線性分類?首先說一下為什麼對資料集一定要說線性可分或線性不可分,難道不可以非線性分開嗎?想要非線性分開當然可以,實際上svm只是把原來線性不可分的資料點對映到乙個新的空間,轉換為在新空間中線性可分資料來進行分類的。如果返回到原來資料的空間...
支援向量機的核函式
什麼是核函式?核函式是特徵轉換函式。這是非常抽象的描述,這一節的內容就是為了理解這個抽象的概念的。假設我們有乙個非線性分界線的分類問題,有兩個特徵 x1 x2 回顧邏輯回歸演算法裡的知識,我們可以使用多項式來增加特徵,以便描述出非線性分界線。當 0 1x 1 2 x2 3x1x 2 4 x21 5x...
支援向量機的核函式
支援向量機是建立在統計學習理論基礎之上的新一代機器學習演算法,支援向量機的優勢主要體現在解決線性不可分問題,他通過引入和函式,巧妙地解決了在高維空間中的內積運算,從而很好的解決了非線性分類問題。構造出乙個具有良好效能的svm,核函式的選擇是關鍵,核函式的選擇包括兩部分工作 一是核函式型別的選擇,二是...