svm麻雀雖小,五臟俱全,從機器學習的三要素都涉及到且還包括凸優化、kkt,對偶等知識,下面總結一下svm在面試中經常會被問到的問題?
svm的分類函式是什麼,超平面是什麼,分類標籤是什麼?
函式間隔是什麼?,幾何間隔是什麼?,他們各自有什麼數學上的直觀意義?它們之間關係是怎樣的?為什麼再有了函式間隔基礎上還要提出幾何間隔?
svm的優化目標是什麼?在此優化目標下,能保證什麼,不能保證什麼?
為什麼在優化時可以將函式幾何間隔視為單位「1」,有何作用?
svm的原始二次凸優化問題的是什麼?目標函式和約束條件是如何推導出來的?
svm的原始二次凸優化問題為什麼要轉化成拉格朗日對偶問題?svm原始二次凸優化問題轉換為對偶問題過程是怎麼樣的?
求出拉格朗日乘子α後,法向量好確定,偏置b如何求出?
為什麼要引入核函式?引入核函式後原始優化問題與對偶問題的形式有何改變? 常用核函式有哪些?
為什麼要引入鬆弛變數?引入鬆弛變數後原始優化問題與對偶問題的形式有何改變?鬆弛變數有何數學上的直觀意義?
原始問題與對偶問題等價的條件是什麼?slater條件與kkt條件究竟是什麼關係?
支援向量的意義是什麼?
按照結構風險函式的角度怎樣來看待svm?
smo演算法的思想是什麼?
svm的model、evaluate、optimization分別是啥(模型、策略與演算法)?
svm如何做回歸問題?
svm如何做多分類問題?
支援向量機(SVM)
簡介 術語 支援向量機 svm 是乙個類分類器,正式的定義是乙個能夠將不同類樣本在樣本空間分隔的超平面。換句話說,給定一些標記 label 好的訓練樣本 監督式學習 svm演算法輸出乙個最優化的分隔超平面。首先我們假定有乙個未知的欲分類的集合,可以進行分割,但是我們不知道分割的函式 超平面,也叫真實...
支援向量機SVM
支援向量機svm support vector machine 是機器學習領域的乙個有監督的學習模型。一 簡介 支援向量機建立在統計學習理論的基礎之上。統計學習理論 statistical learning theory簡稱slt 是一種處理小樣本的統計理論 為研究有限樣本情況下的統計模式識別和更廣...
SVM支援向量機
在機器學習領域,很多時候會用到分類的一些演算法,例如knn,貝葉斯。我們可以把分類的樣本簡單除暴的分為兩種型別。線性可分和非線性可分。可以使用乙個非常簡單的例子來解釋什麼是線性可分,什麼是線性不可分。a 線性可分的2類樣本 b 非線性可分的2類樣 已知乙個線性可分的資料集,其中x表示乙個n維向量,當...