1、為啥要大於等於1,為啥是1/||w||,上面的函式間隔為啥可以忽略?
這裡做了簡化處理,把支援向量到分離超平面的距離簡化為1了。相當於做了乙個標準化,這就是規定。
因為函式間隔通過調整,通過w 和b的等比例變化,是可以忽略的。 你可以把1/||w|| 和 s.t.後面的條件同時放大縮小同樣的倍數。
直觀的理解就是,法向量定了之後,在硬間隔下,其實,你就可以找到那個超平面了,只要把它移動到最後乙個正樣本和第乙個負樣本的正中間直接就可以了,所以,min就求w。s.t約束條件其實就約束了
2、什麼是軟間隔?裡面的鬆弛變數為啥是1/2*||w|| + ξ,為啥要用加?
這時候的超平面有點像曲面了,或者說曲線。
這個 ξ就是對距離的乙個寬恕,一般來說,支援向量在分隔平面上,但是分割平面內有些點,你也想把它納入進來,就可以把原來的線給掰彎了,這個點到分割平面的距離小於1,於是,最優問題李的s.t.就減乙個ξ;同時,同時,原來的1/2*||w||越大表示距離越近,則在其後面又加了個乙個補償,就是ξ。同時,又要有乙個權衡,權衡分錯和經驗風險(ξ就是經驗風險),就引入了懲罰因子c。
向量對於的α1,錯誤分類。
3、為啥求到最後,只要支援向量決定分離超平面?
它的對偶問題,α全都等於0的時候,一定能得到最優解,但是全是0的時候,w b求出來的又全是0了,所以,就得有些α不能是0,這些α對於的向量就是支援向量。
4、核函式
核函式本來與svm是乙個正交的概念,沒啥聯絡。但是svm那幫人在處理某些問題的時候,搞不定了。
核函式非線性的求解trick,技巧更合適,像高維對映美化了它,其實挺神棍的乙個東西。 符合mercer條件的方法都可以作為核函式,但是還有其他的核函式。
借助低維內積的概念,cos角度可以通過內積求出來,所以,高維可以內積表示向量的相似度。
通過核函式,可以不用知道在所謂其本來的高維空間中的那個向量是什麼,而直接得到它們在高維空間的內積。
SVM學習總結
1.svm概述 支援向量機 support vector machines,svm 是一種二類分類模型。它的基本模型是定義在特徵空間上的間隔最大的線性分類器。支援向量機還包括核技巧,這使它成為實質上的非線性分類器。支援向量機的學習策略是間隔最大化,可形式化為乙個求解凸二次規劃的問題,也等價於正則化的...
SVM學習總結(一)如何學習SVM
前段時間一直在鑽研svm演算法,原先一直覺得乙個非常簡單的演算法,沒想到在學的時候還挺難,主要還是對凸優化方面的知識不太熟悉,以後得加強,下面主要說說svm演算法的學習思路 對小白初學者 通過各種資料的對比學習,我個人覺得使用李航的 統計學習方法 第七章,再輔助以網上的資料應該就差不多了,然後再寫個...
機器學習總結 三 SVM
svm是一種二分類模型,是一種在特徵空間中尋找間隔最大化的分離超平面的線性分類器。利用間隔最大化求得的最優分離超平面是唯一的。分離超平面產生的分類結果是最魯棒的,泛化能力最強。採用其他策略可能得到的分類面有無數個,無法判斷哪乙個最優 函式間隔 樣本點到超平面的函式間隔為y w x b 可以用來表示分...