2019 june 29
感知機輸入空間: $\mathcal \subseteq \mathbf ^ $
輸出空間:$\mathcal = $
決策函式:$f ( x ) = \operatorname ( w \cdot x + b )$
$$ \operatorname ( x ) = \left\ & \\ & \end \right. $$
$\frac$:歸一化超平面法向量,令其等於 1。
原始形式
輸入:線性可分資料集
其中 $x _ \in \mathcal = \mathbf ^ $,$y _ \in \mathcal = $,$i = 1,2 , \cdots , n$,學習率 $\eta ( 0 < \eta \leqslant 1 )$;
輸出:$w, b$,感知機模型 $f ( x ) = \operatorname ( w \cdot x + b )$
選取初值 $w_0, b_0$;
在訓練集中選取資料 $\left( x_i, y_i \right)$;
如果 $y _ \left( w \cdot x _ + b \right) \leqslant 0$
轉置 2,直至訓練集中沒有誤分類點。
對偶形式
對偶形式的基本思想是將 $w$ 和 $b$ 表示為例項 $x_i$ 和標記 $y_i$ 的線性組合的形式,通過求解其係數而求得 $w$ 和 $b$。
輸入:線性可分資料集
其中 $x _ \in \mathcal = \mathbf ^ $,$y _ \in \mathcal = $,$i = 1,2 , \cdots , n$,學習率 $\eta ( 0 < \eta \leqslant 1 )$;
輸出:$\alpha, b$,感知機模型 $f ( x ) = \operatorname \left( \sum _ ^ \alpha _ y _ x _ \cdot x + b \right)$,其中 $\alpha = \left( \alpha _ , \alpha _ , \cdots , \alpha _ \right) ^ }$。
$\alpha \leftarrow 0, b \leftarrow 0$;
在訓練集中選取資料 $\left( x_i, y_i \right)$;
如果 $y _ \left( \sum _ ^ \alpha _ y _ x _ \cdot x _ + b \right) \leqslant 0$
轉置 2,直至訓練集中沒有誤分類點。
統計學習方法(第2章)感知機 學習筆記
感知機是二類分類的線性分類模型,其輸入為例項的特徵向量,感知機對應於輸入空間 特徵空間 中將例項劃分為正負兩類的分離超平面,屬於判別模型。匯入基於誤分類的損失函式,利用梯度下降法對損失函式進行極小化,求得感知機模型。感知機學習演算法分為原始形式和對偶形式,是神經網路和支援向量機的基礎。感知機定義 假...
《統計學習方法》2 感知機
感知機 perceptron 是二分類的線性分類模型,輸入為例項的特徵向量,輸出為例項的類別 取 1和 1 感知機對應於輸入空間中將例項劃分為兩類的分離超平面。感知機旨在求出該超平面,為求得超平面匯入了基於誤分類的損失函式,利用梯度下降法 對損失函式進行最優化 最優化 感知機的學習演算法具有簡單而易...
感知機 統計學習方法
一 感知機適用問題以及它的輸入,輸出,求解方法 1 感知機 perceptron 適用於二類分類問題 該分類問題是線性可分問題 2 感知機模型是線性分類模型 3 感知機的幾何解釋,感知機對應的是乙個超平面 4 輸入 例項的特徵向量 5 輸出 例項的類別,取 1和 1二值 6 求解方法 有監督學習 給...