x=
x1,x
2,x3
,...
,xd
y=∑i
=1d(
wixi
+bi)
這裡求和出的結果就是用這些特徵計算出來的總分,如果我們假定y>threshold時,最終結果為1。否則y h(
x)=s
ign(
(∑i=
1d(w
ixi)
)−th
resh
old)
這個公式稱為perceptron hypothesis。
(1)可以對上面的公式進行簡化。其中可以把threshold作為w
0,x0作為1,這樣子的話就可以把上面的公式簡化為: h(
x)=s
ign(
(∑di
=1(w
ixi)
)−th
resh
old)
=sign((
∑di=
0(wi
xi))
+(−t
hres
hold
)
w0∗(
+1)
x0 =
sign
(∑di
=0(w
ixi)
) =
sign
(wtx
) (2)如果把上面的特徵(二維)對應到空間中,則h(x)就是空間中的直線。如果是在多維空間中,則h(x)對應超平面。
我們假定乙個初始的w向量來對資料進行判定,一直到遇到乙個判斷錯誤的資料,這個時候,我們就是使用這個判斷錯誤的資料,對w進行修改。
**如果wx
<
0 ,
y>
0 ,w(k+1) = w(k) + pxk
**如果wx
>
0 ,
y<
0 ,w(k+1) = w(k) - pxk
**如果yw
x>
0 ,w(k+1) = w(k)
這裡我們可以知道w,x在空間中是兩個向量,對於第一種情況,wx
<
0 ,就相當於兩個向量夾角大於90度:
此時,w+x會把新的w向x靠近,這樣的話就達到了學習的效果。
同理對於第二種情況,wx
>
0 ,就相當於兩個向量夾角小於90度:
當出現錯誤時: ||
wt+1
||2=
||wt
+ytx
t||2
=||w
t||2
+2yt
wttx
t+||
ytxt
||2
≤||w
t||2
+||y
txt|
|2≤|
|wt|
|2+m
ax||
ynxn
||2≤
||w0
||2+
tmax
||yn
xn||
2=tm
ax||
xn||
2 由上面的公式可知:||
wt+1
||2|
|wt|
|2≤1
+max
||xn
||2|
|wt|
|2,其中,另r2
=max
||xn
||2 ,所以,上面的式子可以變為: ||
wt+1
||2|
|wt|
|2≤1
+r2|
|wt|
|2因此,可以知道演算法最終是收斂的。演算法學習是可以終止的。
因為 wtf
∗wt+
1=wt
f(wt
+ytx
t)=w
tfwt
+ytw
tfxt
≥wtf
wt+m
inyn
wtfx
n≥..
.≥wt
fw0+
tmin
(ynw
tfxn
)=tm
inyn
wtfx
n 所以: wt
fwt|
|wf|
|||w
t||≥
tmin
ynwt
fxn|
|wf|
|tma
x||x
n||2
√ 又因為wtf
wt||
wf||
||wt
||≤1
又另:ρ=
miny
nwtf
||wf
||xn
計算可得: t≤
r2ρ2
機器學習 簡單感知器
簡單感知器由乙個線性組合器和硬限幅器 即sgn函式,判斷是正數返回1,負數返回 1 組成,線性組合器有m個輸入,m個輸入權值,乙個偏置,影象表述如下 用數學方法表述就是y wixi b,i 1,2,3 m,如果sgn y 1,則分為第一類,否則分為第二類。感知器一般只做出兩類判別。上述表示式可以簡寫...
機器學習之多層感知器
keras是乙個用python編寫的用於神經網路開發的應用介面,呼叫介面可以實現神經網路 卷積神經網路 迴圈神經網路等常用深度學習演算法的開發 特點 tensorflow是乙個採用資料流圖,用於數值計算的開源軟體庫,可自動計算模型相關的微分導數 非常適合用於神經網路模型的求解。keras可看作為te...
學習筆記 感知器 單層感知器舉例
在人體神經網路中,神經細胞是有著基本處理訊號功能的基本單元,單層感知器就是人工神經網路中模擬人體神經細胞的基本單元。單層感知器 單層感知器是最簡單的神經網路,它包含輸入層和輸出層,訊號先經過線性組合器處理然後再經過啟用函式,最後輸出結果。1 輸入節點 input 輸入節點是訊號的輸入端,感知器可以有...