線性可分:即對於分類的倆種類別可以用一條直線將其分開
圖 1顯示的就是乙個線性可分(linear separable)的模型
不可用一條直線或平面將倆個類別分開的模型即非線性可分(non-linear separable)模型
對於線性可分的情況就表明在空間中存在無數條線或平面可以將兩種類別分開
對此支援向量機對每分割線都定義了乙個效能指標
間距(margin):d
目的:找到乙個平面向上或向下移動該平面使之擦過一些向量,使得d盡可能的大,同時將擦過的向量定義為支援向量(support vectors)
對於一些低維線性不可分的向量集,但是其高維未必不可分,此時就要引入乙個超平面(hyperplane)的概念:這是平面中的直線、空間中的平面之推廣(n大於3才被稱為「超」平面),是純粹的數學概念,不是現實的物理概念
svm對此有以下定義:
訓練樣本集中為(資料,標籤):(x1,y1)(x2,y2)…(xn,yn)其中x表示的是資料,是多維向量,y是標籤+1或-1(只有兩類)。
== ps:x=[a1,a2,a3,…,an]多維向量,不是乙個數==
根據線性資料所作的模型求出超平面(w,b),其中w是向量與x維度一致,b是乙個常數。超平面的線性方程為:
訓練集線性可分是指:
事實1:
點到平面的距離公式:平面:ax+by+c=0另外乙個點的座標(x0, y0)
向量x0到超平面的距離可以寫為:
基於事實1,2我們可以用a去縮放(w,b)
使得支援向量x0上有
因此使得d最大問題變為:
最小化(minimize):
機器學習 支援向量機 SVM
svm 方法的基本思想是 定義最優線性超平面,並把尋找最優線性超平面的演算法歸結為求解乙個凸規劃問題。進而基於 mercer 核展開定理,通過非線性對映 把樣本空間對映到乙個高維乃至於無窮維的特徵空間 hilbert 空間 使在特徵空間中可以應用線性學習機的方法解決樣本空間中的高度非線性分類和回歸等...
機器學習 支援向量機SVM
svm是一種監督學習演算法,主要用於分類 回歸 異常值檢測。目前應用於文字分類 手寫文字識別 影象分類 生物序列分析。支援向量機是一種通過某種非線性對映,把低維的非線性可分轉化為高維的線性可分,在高維空間進行線性分析的演算法。支援向量機 svm,support vector machine 是根據統...
機器學習 支援向量機SVM
通俗詳見 要明白什麼是svm,便得從分類說起。分類作為資料探勘領域中一項非常重要的任務,它的目的是學會乙個分類函式或分類模型 或者叫做分類器 而支援向量機本身便是一種監督式學習的方法 至於具體什麼是監督學習與非監督學習,請參見此系列machine l data mining第一篇 它廣泛的應用於統計...