svm是一種有堅實理論基礎的新穎的小樣本學習方法。它基本上不涉及概率測度及大數定律等,因此不同於現有的統計方法。從本質上看,它避開了從歸納到演繹的傳統過程,實現了高效的從訓練樣本到預報樣本的「轉導推理」,
大大簡化了通常的分類和回歸等問題。
svm的最終決策函式只由少數的支援向量所確定,計算的複雜性取決於支援向量的數目,而不是樣本空間的維數,這在某種意義上避免了高維變數引起的災害。如果說神經網路方法是對樣本的所有因子加權的話,svm方法是對只佔樣本集少數的支援向量樣本「加權」。當預報因子與預報物件間蘊涵的複雜非線性關係尚不清楚時,基於關鍵樣本的方法可能優於基於因子的「加權」。少數支援向量決定了最終結果,這不但可以抓住關鍵樣本、「剔除」大量冗餘樣本,而且注定了該方法不但演算法簡單,而且具有較好的「魯棒」性。
由於有較為嚴格的統計學習理論做保證,應用svm方法建立的模型具有較好的推廣能力。sum方法可以給出所建模型的推廣能力的嚴格的界,這是目前其它任何學習方法所不具備的。建立任何乙個資料模型,人為的干預越少越客
觀。與其他方法相比,建立svm模型所需要的先驗干預較少。但核函式的選定及有關引數的優化仍是目前尚未解決的問題。
支援向量機專題 線性支援向量機
原文 當資料線性不可分時,使用硬間隔支援向量機很難得到理想的結果。但是如果資料近似線性可分,可以採用軟間隔支援向量機 線性支援向量機 進行分類。這通常適用於有少量異常樣本的分類,如果使用線性支援向量機,它會盡量使得所有訓練樣本都正確,如下圖所示。顯然這並不是最好的結果,軟間隔支援向量機可以權衡 間隔...
支援向量機
支援向量機 svm 一種專門研究有限樣本 的學習方法。是在統計學習理論基礎之上發展而來的。沒有以傳統的經驗風險最小化原則作為基礎,而是建立在結構風險最小化原理的基礎之上,發展成為一種新型的結構化學習方法。結構風險最小歸納原理 解決了有限樣本或小樣本的情況下獲得具有優異泛化能力的學習機器。包含了學習的...
支援向量機
支援向量 與分離超平面距離最近的樣本點的例項 優點 泛化錯誤率低,計算開銷不大,結果易解釋 缺點 對引數調節和核函式選擇敏感,原始分類器不加修改僅適用於處理二分類問題 適合資料型別 數值型和標稱型資料 每次迴圈中選擇兩個alpha進行優化處理。一旦找到一對合適的alpha,那麼久增大其中乙個同時減小...