從keras中執行卷積神經網路我們呼叫model.summary()
會發現所定義卷積神經網路的引數情況。
我們寫這樣乙個卷積網路:
from keras import models
from keras import layers
model = models.sequential(
)model.add(layers.conv2d(32,
(3,3
), activation=
'relu'
,input_shape=(28
,28,1
)))model.add(layers.maxpool2d((2
,2))
)model.add(layers.conv2d(64,
(3,3
), activation=
'relu'))
model.add(layers.maxpool2d((2
,2))
)model.add(layers.conv2d(64,
(3,3
), activation=
'relu'))
model.add(layers.flatten())
model.add(layers.dense(
64, activation=
'relu'))
model.add(layers.dense(
10, activation=
'softmax'
))
然後再呼叫model.summary()
得到這樣的引數結果。
那麼320個引數怎麼來的呢?
320 = (3x3x1)x32+32
其中3x3為濾波器大小,1為前一層的channel值,32為濾波器的個數
18496=(3x3x32)x64+64
剩下的以此類推,
dense_1的引數計算:
36928=576x64+64
卷積神經網路中的引數計算
舉例1 比如輸入是乙個32x32x3的影象,3表示rgb三通道,每個filter kernel是5x5x3,乙個卷積核產生乙個feature map,下圖中,有6個5x5x3的卷積核,故輸出6個feature map activation map 大小即為28x28x6。下圖中,第二層到第三層,其中...
卷積神經網路中引數的計算
卷積神經網路中的引數計算 from 舉例1 比如輸入是乙個32x32x3的影象,3表示rgb三通道,每個filter kernel是5x5x3,乙個卷積核產生乙個feature map,下圖中,有6個5x5x3的卷積核,故輸出6個feature map activation map 大小即為28x2...
一維卷積神經網路 卷積神經網路中的計算
卷積的基本介紹 卷積操作後張量的大小計算 卷積參數量的計算 卷積flops的計算 感受野的計算 卷積神經網路中的卷積是指定義好卷積核 kernel 並對影象 或者特徵圖,feature map 進行滑動匹配,即對應位置相乘再相加。其特點就在於能夠捕捉區域性的空間特徵。具體過程如下圖所示 圖1 二維卷...