svm的主要思想可以概括為兩點: (1) 它是針對線性可分情況進行分析,對於線性不可分的情況,通過使用非線性對映演算法將低維輸入空間線性不可分的樣本轉化為高維特徵空間使其線性可分,從而使得高維特徵空間採用線性演算法對樣本的非線性特徵進行線性分析成為可能; (2) 它基於結構風險最小化理論之上在特徵空間中建構最優分割超平面,使得學習器得到全域性最優化,並且在整個樣本空間的期望風險以某個概率滿足一定上界。
支援向量機的目標就是要根據結構風險最小化原理,構造乙個目標函式將兩類模式盡可能地區分開來, 通常分為兩類情況來討論, (1) 線性可分,(2) 線性不可分。
w ·x + b = 0 (1) 其中,「·」是點積, w 是n 維向量, b 為偏移量。
最優超平面是使得每一類資料與超平面距離最近的向量與超平面之間的距離最大的這樣的平面
. 最優超平面可以通過解下面的二次優化問題來獲得
: 滿足約束條件:
在特徵數目特別大的情況,可以將此二次規劃問題轉化為其對偶問題:
滿足約束條件:(7)
這裡
優化問題的求解與分析中, kkt條件將起到很重要的作用,在(7) 式中,其解必須滿足:
從式(5) 可知,那些
本稱為支援向量,故最終的分類函式為:
根據f ( x) 的符號來確定x 的歸屬。
1. 2 線性不可分的情況
對於線性不可分的情況,可以把樣本x 對映到乙個高維特徵空間h,並在此空間中運用原空間的函
數來實現內積運算,這樣將非線性問題轉換成另一空間的線性問題來獲得乙個樣本的歸屬. 根據泛函的
有關理論,只要一種核函式滿足mercer 條件,它就對應某一空間中的內積,因此只要在最優分類面上採
用適當的內積函式就可以實現這種線性不可分的分類問題. 此時的目標函式為:
其相應的分類函式為:
1. 3 內積核函式
目前有三類用的較多的內積核函式:第一類是
我們所能得到的是p階多項式分類器,第二類是徑向基函式(rbf),也稱作高斯核函式:
第三類是sigmoid函式:
這時svm實現的就是包含乙個隱層感知器,隱層結點數是由演算法自動確定的。究竟用哪一種
核函式比較好了?這還是取決你對資料處理的要求,不過建議可以使用徑向基函式。
SVM的分類原理
svm的主要思想可以概括為兩點 1 它是針對線性可分情況進行分析,對於線性不可分的情況,通過使用非線性對映演算法將低維輸入空間線性不可分的樣本轉化為高維特徵空間使其線性可分,從而使得高維特徵空間採用線性演算法對樣本的非線性特徵進行線性分析成為可能 2 它基於結構風險最小化理論之上在特徵空間中建構最優...
SVM核函式的分類
下列不是svm核函式的是 這道題的答案是logistic核函式。不要把這裡的sigmoid和logistic混淆了,為什麼?看下面解釋 支援向量機是建立在統計學習理論基礎之上的新一代機器學習演算法,支援向量機的優勢主要體現在解決線性不可分問題,它通過引入核函式,巧妙地解決了在高維空間中的內積運算,從...
SVM的實現原理
svm的 是實現原理 1 計算核函式 def calckernelvalue matrix x,sample x,kerneloption kerneltype kerneloption 0 numsamples matrix x.shape 0 kernelvalue mat zeros nums...