人的大腦有860億個神經元,而神經元和其他神經元之間的連線多達上萬個。所以有理由相信人類大腦的神經網路的隱藏層神經元節點之間應該是相互連線的。如果隱藏曾節點之間相互連線那麼人類大腦的隱藏層就應該是立體的結構,假設乙個神經網路第一層有4個節點,第二層也有4個節點
輸入x輸出是y,第一層是aehb,第二層是dfgc。與tensorflow的神經網路相比只是多了ab,bh,he,ea,dc,cg,gf,fd共8條權重連線,如果把這8條連線去掉和tensorflow的神經網路結構是完全相同的,這裡假設神經元起到閥門一樣的功能,按照時間或者電壓或其他生物指標可以遮蔽這8條連線,這個假設至少用計算機程式設計的方法可以很容易做到。將這個模型叫做f(x)=y。
因為是立體結構有理由相信這8個點還可以同時支援別的模型
這個模型的輸入是m輸出是n,第一層是aefd,第二層是bhgc。同樣如果去掉ae,ef,fd,da,bh,hg,gc,cb這8條連線這個模型和tensorflow的模型是一樣的,並沒有區別。按照神經元閥門的假設在輸入m的同時將這8條連線遮蔽。經過訓練形成模型f(m)=n。
那這兩個模型是否可以共存?
這個模型8個節點同時支援兩個模型f(x)=y和f(m)=n,假設神經元閥門在這種多模型狀態下仍然可以正常完成遮蔽,則這兩個模型其實只有eg,ec,ag,ac這4條連線的權重是相同的,其餘的權重值並不受影響。相當於兩個tensorflow神經網路共享4個權重。
此時eg,ec,ag,ac這4個權重值用集合cross表示。用jhx表示f(x)=y產生的權重集合,用jhm表示f(m)=n產生的權重集合。則這個立體的神經網路模型就等同於
f(x)=y
f(m)=n
jhx
∩jhm=cross
所以這個立體神經網路模型相當於用乙個模型去一部分初始化另乙個模型。
神經網路 卷積神經網路
這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...
神經網路 卷積神經網路
1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...
神經網路簡介 多層神經網路
如上圖所示,該神經網路有三層。我們標記第一層 也就是輸入層 為a 1 第一層與第二層連線權重為w 1 然後第一層輸入與第一層權重的線性和為z 1 第一層神經元個數為n 1 並依次標記剩餘網路層。可以看出,存在 z l j i 1 n l a l i w l i,j a l w l j a l 1 f...