支援向量機通過某非線性變換 φ( x) ,將輸入空間對映到高維特徵空間。特徵空間的維數可能非常高。如果支援向量機的求解只用到內積運算,而在低維輸入空間又存在某個函式 k(x, x′) ,它恰好等於在高維空間中這個內積,即k( x, x′) = 。那麼支援向量機就不用計算複雜的非線性變換,而由這個函式 k(x, x′) 直接得到非線性變換的內積,使大大簡化了計算。這樣的函式 k(x, x′) 稱為核函式
核函式包括線性核函式、多項式核函式、高斯核函式等,其中高斯核函式最常用,可以將資料對映到無窮維,也叫做徑向基函式(radial basis function 簡稱 rbf),是某種沿徑向對稱的標量函式。 [1] 通常定義為空間中任一點x到某一中心xc之間歐氏距離的單調函式 ,可記作 k(||x-xc||), 其作用往往是區域性的,即當x遠離xc時函式取值很小。
根據模式識別理論,低維空間線性不可分的模式通過非線性對映到高維特徵空間則可能實現線性可分,但是如果直接採用這種技術在高維空間進行分類或回歸,則存在確定非線性對映函式的形式和引數、特徵空間維數等問題,而最大的障礙則是在高維特徵空間運算時存在的「維數災難」。採用核函式技術可以有效地解決這樣問題。
設x,z∈x,x屬於r(n)空間,非線性函式φ實現輸入空間x到特徵空間f的對映,其中f屬於r(m),n (1)
其中:為內積,k(x,z)為核函式。從式(1)可以看出,核函式將m維高維空間的內積運算轉化為n維低維輸入空間的核函式計算,從而巧妙地解決了在高維特徵空間中計算的「維數災難」等問題,從而為在高維特徵空間解決複雜的分類或回歸問題奠定了理論基礎。
核函式方法的廣泛應用,與其特點是分不開的: [2]
(1)核函式的引入避免了「維數災難」,大大減小了計算量。而輸入空間的維數n對核函式矩陣無影響,因此,核函式方法可以有效處理高維輸入。
(2)無需知道非線性變換函式φ的形式和引數.
(3)核函式的形式和引數的變化會隱式地改變從輸入空間到特徵空間的對映,進而對特徵空間的性質產生影響,最終改變各種核函式方法的效能。
(4)核函式方法可以和不同的演算法相結合,形成多種不同的基於核函式技術的方法,且這兩部分的設計可以單獨進行,並可以為不同的應用選擇不同的核函式和演算法
機器學習 支援向量機 SVM
svm 方法的基本思想是 定義最優線性超平面,並把尋找最優線性超平面的演算法歸結為求解乙個凸規劃問題。進而基於 mercer 核展開定理,通過非線性對映 把樣本空間對映到乙個高維乃至於無窮維的特徵空間 hilbert 空間 使在特徵空間中可以應用線性學習機的方法解決樣本空間中的高度非線性分類和回歸等...
機器學習 支援向量機SVM
svm是一種監督學習演算法,主要用於分類 回歸 異常值檢測。目前應用於文字分類 手寫文字識別 影象分類 生物序列分析。支援向量機是一種通過某種非線性對映,把低維的非線性可分轉化為高維的線性可分,在高維空間進行線性分析的演算法。支援向量機 svm,support vector machine 是根據統...
機器學習 支援向量機SVM
通俗詳見 要明白什麼是svm,便得從分類說起。分類作為資料探勘領域中一項非常重要的任務,它的目的是學會乙個分類函式或分類模型 或者叫做分類器 而支援向量機本身便是一種監督式學習的方法 至於具體什麼是監督學習與非監督學習,請參見此系列machine l data mining第一篇 它廣泛的應用於統計...