參考:
在介紹線性可分之前就必須先介紹一下超平面的概念。
通常我們熟知的「平面」,一般定義在3維的空間中,即形式為ax+by+cz+d=0。只有當維度大於3時,才稱為「超」。而超平面的本質就是自由度比空間維度小1。
自由度可以理解為至少給定多少個分量時才能確定乙個點。例如在2維空間中,給定2個分量就可以確定乙個點。我自己結合線性代數的理解說一下我的看法,其實也可以從基向量的角度來說(不知道對不對,如果錯了請指正)。我們知道乙個空間是可以由某些基向量構成的,在這裡拿平面來說,必然需要2個基向量才能構成乙個平面,即span。所以自由度應該也能由基向量的個數來決定。即基向量個數就是自由度的值。
直觀上理解就是,2維平面上的超平面是一條線,3維空間的超平面是乙個面。這裡給出超平面的定義: ⅰ:w.x+b = 0,其中w,x都是 n維的向量,x=(x1,x2,…,xn)是超平面上的點,w為超平面的法向量,w=(w1,w2,…,wn),.代表內積,ⅰ是n維空間中的超平面。
這裡需要說明的乙個超平面可以將它所在的空間分為兩半, 它的法向量指向的那一半對應的一面是它的正面, 另一面則是它的反面。那如何判斷某個點x=(x1,x2,…,xn)是在超平面上,超平面的正面,還是在超平面的負面。這裡可以根據
有了超平面之後,線性可分的概念也就清晰了。對於乙個資料集d=。這裡(xi,yi)是乙個樣本,細分來說,xi是輸入資料,yi是對應的標籤。(對於乙個2分類的問題,若yi=1,則稱其為正樣本,若yi=-1則稱其為負樣本,且標籤只能取+1和-1 這兩個值)如果存在乙個超平面,能夠將資料集d的正負樣本分開,那麼就稱d是線性可分的。否則就是線性不可分的。
線性可分與線性不可分
線性可分與線性不可分 現實任務中,原始樣本空間內並不存在乙個能正確劃分兩類樣本的超平面。可將樣本從原始空間影射到乙個更高維的特徵空間,使得樣本在這個特徵空間內線性可分。例如在上圖中,若將原始的二維空間對映到乙個合適的三維空間,這樣就能找到乙個合適的劃分超平面,幸運的是如果原始空間是有限維度,即屬性數...
線性可分 線性不可分
很多機器學習分類演算法,比如支援向量機 svm 的介紹都說了假設資料要是線性可分。如果資料不是線性可分的,我們就必須要採用一些特殊的方法,比如svm的核技巧把資料轉換到更高的維度上,在那個高維空間資料更可能是線性可分的 cover定理 理論上一定能在更高的維度把資料線性可分。線性可分就是說可以用乙個...
理解線性可分和線性不可分與機器學習什麼叫線性模型
首先大家不要直觀理解線性可分就一定要是一條直線,線性可分指的是可以用乙個線性函式將兩類樣本分開 注意這裡是線性函式 比如在二維空間中的直線,三位空間中的平面以及高維空間中的線性函式。這裡指的可分是沒有一絲誤差的分開,線性不可分指的就是部分樣本用線性分類面 這個看清楚 劃分時會產生分類錯誤的現象。這裡...