核函式一般有如下函式
高斯函式 ϕ(
u)=e
−u2δ
2 反射sigmoid函式 ϕ(
u)=1
1+eu
2δ2
逆多二次函式 ϕ(
u)=1
(u2+
δ2)1
2 其中,δ
>
0 為基函式的拓展常數或寬度。
rbf(徑向基函式神經網路)網路結構圖如下
對於輸入x=
(x1,
x2,⋯
,xn)
t ,c1
,c2,
⋯,cm
為樣本中心,w=
(w1,
w2,⋯
,wm×
h)為輸出權重。則其第yi
個輸出為 yi
=∑i=
1hwi
jϕ(|
|x−c
i||)
,1≤j
≤m內插問題
假設有n
個訓練資料,輸入為xi
,1≤i
≤n,輸出為yi
,1≤i
≤n,則問題為求函式
f ,使y=
f(x)
。 訓練:
做插值問題時,可將
n 個訓練資料作為樣本中心,則問題只需要求w=
(w1,
w2,⋯
,wn)
。 假設當輸入為xi
,i=1
,2,⋯
,n,則第
j 個輸出為 hi
j=ϕj
(||x
i−cj
||)其中,ϕj
為該隱含層節點的啟用函式,cj
=xj 為隱含層樣本中心,用
h 表示[h
ij] ,則rbf網路輸出為 yi
=f(x
i)=∑
j=1n
hijw
j=∑j
=1nϕ
j(||
xi−c
j||)
令yi=f(
xi) ,y=
tt=(
y1,y
2,⋯,
yn)t
,w=(w1,
w2,⋯
,wn)
t ,則有 y=
hw一般情況下,使用
n 個樣本進行訓練,此時w也為
n 元,此時
h可逆,則可以求解
w w=
h−1y
存在問題: 容易出現過擬合假定s
= 為訓練資料,若通過均方誤差最小化目標函式,其目標函式為 es
(f)=
12∑i
=1n(
yi−f
(xi)
)2新增正則化項, er
(f)=
12||
df||
2 則新增了正則化項的誤差函式為 e(
f)=e
s(f)
+λer
(f)
通過求解上述誤差函式的最小值,即
mine(f
)=es
(f)+
λer(
f)=1
2∑i=
1n(y
i−f(
xi))
2+12
||df
||2
求解上面式子,可以得 f(
x)=∑
i=1n
wig(
x,xi
)w=(
g+λi
)−1y
g(x,xi)
為green函式,
g 為green矩陣,green函式為運算元
d 的形式有關。當
d具有旋轉不變性和平移
不變性,g(
x,xi
)=g(
||x−
xi||
) 。其中,乙個典型的green函式為 g(
x,xi
)=exp(−1
2σ2|
|x−x
i|2|
) 可通過k-means聚類確定樣本中心。若給定有
k 個樣本中心,則可隨機取
k個樣本作為初始聚類中心,通過迭代求出
k 個樣本中心。
[1]田玉波,混合神經網路技術,科學出版社,2023年6月
[2]
rbf神經網路 RBF神經網路以及Python實現
rbf網路能夠逼近任意非線性的函式。可以處理系統內難以解析的規律性,具有很好的泛化能力,並且具有較快的學 習速度。當網路的乙個或多個可調引數 權值或閾值 對任何乙個輸出都有影響時,這樣的網路稱為全域性逼近網路。由於對於每次輸入,網路上的每乙個權值都要調整,從而導致全域性逼近網路的學習速度很慢,比如b...
神經網路rbf
clc clear close all ld 400 定義學習樣本的數量 x rand 2,ld 得到乙個2 400的乙個矩陣,每個元素在0 1之間 x x 0.5 1.5 2 1.5,1.5 x1 x 1,得到矩陣的第1行 x2 x 2,得到矩陣的第2行 f 20 x1.2 10 cos 2 pi...
RBF(徑向基函式)神經網路
今天學習了rbf神經網路,裡面有一些概念個人覺得不是很好理解。rbf神經網路是一種單隱層前饋神經網路,如下所示rbf rbf神經網路一共分為三層,第一層為輸入層即input layer,由訊號源節點組成 第二層為隱藏層即圖中中間的黃球,隱藏層中神經元的變換函式即徑向基函式是對中心點徑向對稱且衰減的非...