神經網路可以計算什麼樣的函式? 答案是任何函式。本文將用影象來證明神經網路可以模擬任何的空間上的座標,而且網路節點越多,精度越高。
乙個輸入和乙個輸出的普遍型:
對於f(x)=sigmoid(wx+b)來說,w越大,s形狀越陡,階躍發生在s=-b/w的位置,階躍的位置與w成反比,與b成正比
我們用乙個引數s替換
w和b來簡化神經元的描述難度
例如只觀察隱藏層上面這個神經元,當
w=1000
,b=-400
時,圖形曲線如下:
當然這樣簡化的前提是
w是個很大的值,以至於
sigmoid的s
曲線趨近與階躍函式。
到目前為止,我們只是考慮了隱藏層的上面的這個單個節點,如果考慮到更多的節點,網路和輸出曲線是這樣的:
s決定了階躍點,權重
w決定了函式變化的方向和高度。 當
w1為n,
w2為-n時,這種情況就會在輸出圖中形成乙個凸起,我們用乙個
h來標識±
w,那麼稍微
4個節點的神經網路可以表示為:
我們可以通過改變
h來任意的改變期望高度,再看個更複雜的例子:
那麼有了這些理論基礎,我們就可以通過s和
h來描述任意的曲線,只要我們的神經網元足夠多,可以將
x軸拆分的足夠細,精度就會足夠高。圖中藍色曲線是任意的函式曲線,桔色是我們通過
s+h擬合出的結果。
多個輸入變數的普遍性:
很難從視覺或者腦空間想象來解釋
3個輸入以上場景,所以對多個輸入變數的推理就從
2個輸入變數開始,然後剩下的只能靠推理和腦補了。
現在有x和
y兩個輸入變數,當固定了其中
y的許可權w為
0後,那麼
output與x
和y的關係圖如下:
延續前一章節乙個變數時
s=-wb
的原理,當
w很大時,
s被稱為階躍點;由於現在是多維,所以
s還要多增加乙個維度的資訊,上圖當
w很大時,我們用
xs來標識
x座標上的階躍點,如下:
同理可以推出ys:
同乙個變數時一樣再引入
h這個概念,如果只有
xs的神經網元,效果如下:
如果xs和ys
的神經網元都存在的情況下,效果如下:
當我們改變
h到乙個比較大的值,然後偏置b≈
-3h/2
時,該網路的輸出會變成乙個錐形:
其實這個啟示已經很明顯了,如果乙個錐看不出來,假設網路規模翻一倍,就可以展示
2個錐:
每個錐的錐頂代表了一組輸出資料的區域,這樣就跟單變數輸入時一樣,只要神經元節點夠多,網路規模夠大,我們就可以構造足夠多的錐,那麼就可以證明目前這個神經網路可以模擬所有的輸出。 超過
2個變數,神經網路搭建方式類似,也是通過s和
h的概念進行類推。
本文參考英文原文
,裡面有一些動畫類的演示也很有助於理解,建議穿插著一起閱讀。
簡單的網路層是,更方便我們對普遍性可以模擬任何函式這一論點進行證明,但是實際應用中越深度(隱藏層越多)的網路越有助於解決真正的現實問題。
bp神經網路matlab 神經網路有哪些網路
深度學習,人工智慧,神經網路這些概念往往令初學者頭疼不已,這裡列出其基礎概念的歸納總結,幫助小白入坑,共同學習。人工神經網路 artificial neural network,ann 是一種模擬生物神經網路的結構和功能的數學模型或計算模型。神經網路與小波分析 混沌 粗糙理論 分形理論的融合。194...
神經網路 卷積神經網路
這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...
神經網路 卷積神經網路
1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...