liblinear
libsvm:台灣的
線性可分的svm:
maxλs.
t.yi
(wxi
+b)|
|w||
≥λi=
1,2…
,n代入λ=
λ^/|
|w||
, 於是得到
maxλ^|
|w||
s.t.
yi(w
xi+b
)≥λ^
i=1,
2…,n
其中λ 是幾何距離,λ^
是函式距離。λ^
的取值對上述優化問題沒有影響,因為如果λ^
按比例增加,那麼目標函式和約束中的w 和
b也按比例增加,超平面沒有變化。可以取λ^
=1,這樣上面的優化問題就可以寫成:
max12|
|w||
2s.t
.yi(
wxi+
b)≥1
i=1,
2…,n
目標函式是二次函式,約束條件是仿射函式的情況是凸二次規劃問題。該問題對應的拉格朗日函式是: l(
w,b,
α)=1
2||w
||2+
∑iαi
−∑iα
iyi(
wxi+
b)原來的優化問題對應拉格朗日函式的極大極小問題:
maxα
minw,b
l(w,
b,α)
=12|
|w||
2+∑i
αi−∑
iαiy
i(wx
i+b)
先令拉格朗日函式對w 和
b的導數為0,得到 w=
∑iαi
yixi
0=∑iαiy
i 把這兩個式子代回去,得到對偶問題:
maxα∑i
αi−1
2∑i∑
jαiα
juiy
jxix
js.t
.∑iα
iyi=
0,αi
≥0,i
=1,2
,…,n
kkt條件: αi
≥0 α
i(yi
(wxi
+b)−
1)=0
yi(wxi+
b)−1
≥0求得最優的α∗
之後,就可以得到w∗
和b∗ : w∗
=∑iα
∗iyi
xi, b=
yj−w
∗xj,
任意的α
j>0的
下標 求
b 得式子來自於kkt條件的第二項。
非線性問題
通過對映ϕ(
x)把低維特徵空間對映到高維特徵空間,使得樣本在高維空間是線性可分的。過程是一樣的,區別就在於xi
xj寫成k(x
i,xj
) 。線性不可分問題
這時需要加入乙個在約束中加入鬆弛變數,允許一定程度的誤分,但又不可能誤分的太多,所以可以在優化目標裡面加入對誤分的懲罰。
max12|
|w||
2+c∑
iξis
.t.y
i(wx
i+b)
≥1−ξ
ii=1
,2…,
nξi≥
0 一樣的求解過程,得到的對偶函式形式一致,只不過多了
0<
α<
c :
maxα∑i
αi−1
2∑i∑
jαiα
juiy
jxix
js.t
.∑iα
iyi=
0,0≤
αi≤c
,i=1
,2,…
,n ξ
i 的。
機器學習 SVM
svm 支援向量機是個二分類模型。給定給乙個包含正例和反例的樣本集合,svm的目的是尋找乙個超平面來對樣本根據正例和反例進行分割。保證最大間隔,間隔最大可以有效避免在分類面上的樣本的誤判率。網上也是對其推崇備至,認為不管什麼任務,先跑跑svm和rf。對於超平面的求取,是乙個凸二次規劃問題,牽扯到對偶...
機器學習 SVM
當train data線性可分時,存在多個分離超平面可以把兩類資料正確分開,感知機利用的是誤分類最小的策略,求得分離超平面。但是這是有無窮多個解,而線性svm利用了間隔最大化求分離超平面,解是唯一的,優點是不僅把正負樣本點分開,還對最難分的點 即離超平面最近的點 也有足夠大的確信度將它們分開 希望用...
機器學習SVM
svm支援向量機他是乙個二類分類模型,是給基本模型的特徵空間間隔最大的線性分類器,目的就是求最大間隔 eg 給定一些資料點用x表示資料點,用y表示分的類別 y可以取1或者 1,分別代表兩個不同的類 線性分類器 svm 就是要在n維中找到乙個超平面可以將資料更好的分類 這個超平面的方程可以表示為 wt...