主要層結構:卷積層、池化層、全連線層。
神經元個數:乙個卷積層的輸出是20*20*32,則神經元的個數為:20*20*32=12800;
濾波器視窗大小:3*3, 輸入的資料體深度10,則每個神經元有:3*3*10=900引數;
總的引數:12800*900=11520000個引數;
引數共享:32個濾波器,總共引數:32*900=28800。原因:特徵在不同位置的表現是相同的。
卷積層的一些性質:
池化層:減少參數量,防止過擬合;(特徵不變性)
實際證明,最大池化效果最好,平均池化一般放在卷積神經網路的最後一層。
(在進入全連線層之前,使用全域性平均池化能夠有效降低過擬合)
主要結構:lstm & gru (gated recurrent unit)(主要用於解決長時依賴問題)
lstm (long short term memory networks), 2023年提出。
結構:輸入門、遺忘門、輸出門。遺忘門能夠自己學習保留多少以前的記憶,使得不再需要人為的干擾,網路可以自主學習。
gru (gated recurrent unit) 2023年提出,gru將遺忘門和輸入門合成了乙個「更新門」
《1。卷積神經網路》
1.簡述卷積的基本操作,並分析其與全連線層的區別 答 具有區域性連線和權值共享的特點。卷積操作能夠在輸出資料中大致保持輸入資料的結構資訊 2.在卷積神經網路中,如何計算各層的感受野大小?答 3.卷積層的輸出尺寸 參數量和計算量 答 輸出尺寸 1.簡述分組卷積及其應用場景 答 分組卷積就是將輸入通道和...
深度學習筆記整理(三) 卷積神經網路
由負責對比度提取的g層,負責圖形特徵提取的s細胞層和抗變形的c細胞層交替排列組成。基於人類視覺皮層感受野的結構得到的模型,由輸入層 卷積層 池化層 全連線層 輸出層組成,接下來分別具體介紹不同層。卷積的本質 如果全部都是全連線層,引數太多,無法調整,無法實現,因此改用卷積核,共享引數,減少參數量。卷...
卷積神經網路學習1 卷積層
卷積神經網路常用於計算機視覺當中,應用在計算機視覺當中,就要面臨乙個挑戰,那就是輸入資料非常的大,假如輸入乙個1000 1000的,那麼他就有1000 1000 3 的rgb三通道 個資料,對於300w的資料量,那麼當我們第乙個隱藏層有1000個神經元進行全連線時,那麼將會有300w 1000個引數...