svm實現多分類的三種方案
svm本身是乙個二值分類器
svm演算法最初是為二值分類問題設計的,當處理多類問題時,就需要構造合適的多類分類器。
目前,構造svm多類分類器的方法主要有兩類
(1)直接法,直接在目標函式上進行修改,將多個分類面的引數求解合併到乙個最優化問題中,通過求解該最優化問題「一次性」實現多類分類。這種方法看似簡單,但其計算複雜度比較高,實現起來比較困難,只適合用於小型問題中;
(2)間接法,主要是通過組合多個二分類器來實現多分類器的構造,常見的方法有one-against-one和one-against-all兩種。
一對多法(one-versus-rest,簡稱ovr svms)
訓練時依次把某個類別的樣本歸為一類,其他剩餘的樣本歸為另一類,這樣k個類別的樣本就構造出了k個svm。分類時將未知樣本分類為具有最大分類函式值的那類。
假如我有四類要劃分(也就是4個label),他們是a、b、c、d。
於是我在抽取訓練集的時候,分別抽取
(1)a所對應的向量作為正集,b,c,d所對應的向量作為負集;
(2)b所對應的向量作為正集,a,c,d所對應的向量作為負集;
(3)c所對應的向量作為正集,a,b,d所對應的向量作為負集;
(4)d所對應的向量作為正集,a,b,c所對應的向量作為負集;
使用這四個訓練集分別進行訓練,然後的得到四個訓練結果檔案。
在測試的時候,把對應的測試向量分別利用這四個訓練結果檔案進行測試。
最後每個測試都有乙個結果f1(x),f2(x),f3(x),f4(x)。
於是最終的結果便是這四個值中最大的乙個作為分類結果。
評價:這種方法有種缺陷,因為訓練集是1:m,這種情況下存在biased.因而不是很實用。可以在抽取資料集的時候,從完整的負集中再抽取三分之一作為訓練負集。
一對一法(one-versus-one,簡稱ovo svms或者pairwise)
其做法是在任意兩類樣本之間設計乙個svm,因此k個類別的樣本就需要設計k(k-1)/2個svm。
當對乙個未知樣本進行分類時,最後得票最多的類別即為該未知樣本的類別。
libsvm中的多類分類就是根據這個方法實現的。
假設有四類a,b,c,d四類。在訓練的時候我選擇a,b; a,c; a,d; b,c; b,d;c,d所對應的向量作為訓練集,然後得到六個訓練結果,在測試的時候,把對應的向量分別對六個結果進行測試,然後採取投票形式,最後得到一組結果。
投票是這樣的:
a=b=c=d=0;
(a,b)-classifier 如果是a win,則a=a+1;otherwise,b=b+1;
(a,c)-classifier 如果是a win,則a=a+1;otherwise, c=c+1;
...(c,d)-classifier 如果是a win,則c=c+1;otherwise,d=d+1;
the decision is the max(a,b,c,d)
評價:這種方法雖然好,但是當類別很多的時候,model的個數是n*(n-1)/2,代價還是相當大的。
層次支援向量機
層次分類法首先將所有類別分成兩個子類,再將子類進一步劃分成兩個次級子類,如此迴圈,直到得到乙個單獨的類別為止。對層次支援向量機的詳細說明可以參考**《支援向量機在多類分類問題中的推廣》(劉志剛,計算機工程與應用,2004)
q q: 1203456195
出處:
分類:
b:machine learning
SVM多分類思路
svm本身是乙個二值分類器 svm演算法最初是為二值分類問題設計的,當處理多類問題時,就需要構造合適的多類分類器。目前,構造svm多類分類器的方法主要有兩類 1 直接法,直接在目標函式上進行修改,將多個分類面的引數求解合併到乙個最優化問題中,通過求解該最優化問題 一次性 實現多類分類。這種方法看似簡...
SVM多分類的兩種方式
以下內容參考 王正海 基於決策樹多分類支援向量機岩性波譜分類 svm本身是乙個二值分類器,svm演算法最初是為二值分類問題設計的,當處理多類問題時,就需要構造合適的多類分類器。目前,構造svm多類分類器的方法主要有兩類,直接法 間接法。一 直接法 直接在目標函式上進行修改 將多個分類面的引數求解合併...
SVM 實現多分類思路
svm 是針對二分類問題,如果要進行多分類,無非就是多訓練幾個svm唄 對於k個類別 k 2 的情況,訓練k個svm,其中,第j個svm用於判斷任意條資料是是屬於類別j還是非類別j.的時候,具有最大值的 w i tx bi 表示該樣本屬於類別i.假設樣本有 3個類別,a,b,c,則需要訓練3個svm...