(1)卷積層
卷積層的引數就是卷積核的總數加上偏置數,例如乙個14* 14* 6 (6為通道數)的特徵圖,經過5* 5* 16的卷積核,那麼這層的引數為5* 5* 16* 6+16=2416個引數(注意要乘上一層的通道數)。
(2)池化層
池化層很有意思的特點就是,它有一組超引數,但並沒有引數需要學習。實際上,梯度下降沒有什麼可學的,一旦確定了kernel的stride,它就是乙個固定運算,梯度下降無需改變任何值。
(3)全連線層
全連線也有偏置的,例如乙個5* 5* 16 (16是通道數)的特徵圖後面接乙個120個節點的全連線層,那麼這層全連線層的引數總共為5* 5* 16*120+120 =48120個引數。
附上pytorch列印出來的引數值:
輸出:
10torch.size([6, 1, 5, 5])
torch.size([6])
torch.size([16, 6, 5, 5])
torch.size([16])
torch.size([120, 400])
torch.size([120])
torch.size([84, 120])
torch.size([84])
torch.size([10, 84])
torch.size([10])
卷積中的引數
卷積引數 引數,filter多少,卷積核大小 32 32 3 5 5 3卷積後,得到 28 28 1 計算公式 32 5 1,若使用6個filter 那麼就是得到28 28 6個輸出 即 加上bias後,5 5 3 6 6 456個引數 卷積後的大小計算 關鍵引數 步長,卷積核大小 n f stri...
卷積神經網路中的引數計算
舉例1 比如輸入是乙個32x32x3的影象,3表示rgb三通道,每個filter kernel是5x5x3,乙個卷積核產生乙個feature map,下圖中,有6個5x5x3的卷積核,故輸出6個feature map activation map 大小即為28x28x6。下圖中,第二層到第三層,其中...
卷積神經網路中的引數計算
從keras中執行卷積神經網路我們呼叫model.summary 會發現所定義卷積神經網路的引數情況。我們寫這樣乙個卷積網路 from keras import models from keras import layers model models.sequential model.add lay...