卷積神經網路中的引數計算 from_
舉例1:
比如輸入是乙個32x32x3的影象,3表示rgb三通道,每個filter/kernel是5x5x3,乙個卷積核產生乙個feature map,下圖中,有6個5x5x3的卷積核,故輸出6個feature map(activation map),大小即為28x28x6。
下圖中,第二層到第三層,其中每個卷積核大小為5x5x6,這裡的6就是28x28x6中的6,兩者需要相同,即每個卷積核的「層數」需要與輸入的「層數」一致。有幾個卷積核,就輸出幾個feature map,下圖中,與第二層作卷積的卷積核有10個,故輸出的第三層有10個通道。
舉例2:
nxn大小的輸入(暫時不考慮通道數),與fxf大小的卷積核(暫時不考慮個數)做卷積,那麼輸出大小為多大?計算公式為:(n - f) / stride + 1,其中stride為做卷積是相鄰卷積核的距離。
舉例3:
當輸入為7x7大小,卷積核為3x3,stride=1,在7x7周圍補上一圈0(pad=1個畫素),那麼輸出大小為多大?
是7x7。
舉例3:
輸入為32x32x3,卷積核大小為5x5,總共有10個卷積核,做卷積的時候stride=1,pad=2,那麼這一層總共含有多少引數?
每個卷積核含有的引數個數為:5*5*3 + 1 = 76,其中1是偏置bias,由於有10個卷積核,故總引數為76*10=760。
總結:
其中,卷積核的數量k一般是2的整數次冪,這是因為計算方便(計算機計算2^n比較快)
關於池化層的引數計算:
參考:史丹福大學cs231n課程ppt
舉例1:
比如輸入是乙個32x32x3的影象,3表示rgb三通道,每個filter/kernel是5x5x3,乙個卷積核產生乙個feature map,下圖中,有6個5x5x3的卷積核,故輸出6個feature map(activation map),大小即為28x28x6。
下圖中,第二層到第三層,其中每個卷積核大小為5x5x6,這裡的6就是28x28x6中的6,兩者需要相同,即每個卷積核的「層數」需要與輸入的「層數」一致。有幾個卷積核,就輸出幾個feature map,下圖中,與第二層作卷積的卷積核有10個,故輸出的第三層有10個通道。
舉例2:
nxn大小的輸入(暫時不考慮通道數),與fxf大小的卷積核(暫時不考慮個數)做卷積,那麼輸出大小為多大?計算公式為:(n - f) / stride + 1,其中stride為做卷積是相鄰卷積核的距離。
舉例3:
當輸入為7x7大小,卷積核為3x3,stride=1,在7x7周圍補上一圈0(pad=1個畫素),那麼輸出大小為多大?
是7x7。
舉例3:
輸入為32x32x3,卷積核大小為5x5,總共有10個卷積核,做卷積的時候stride=1,pad=2,那麼這一層總共含有多少引數?
每個卷積核含有的引數個數為:5*5*3 + 1 = 76,其中1是偏置bias,由於有10個卷積核,故總引數為76*10=760。
總結:
其中,卷積核的數量k一般是2的整數次冪,這是因為計算方便(計算機計算2^n比較快)
關於池化層的引數計算:
參考:史丹福大學cs231n課程ppt
卷積神經網路中的引數計算
舉例1 比如輸入是乙個32x32x3的影象,3表示rgb三通道,每個filter kernel是5x5x3,乙個卷積核產生乙個feature map,下圖中,有6個5x5x3的卷積核,故輸出6個feature map activation map 大小即為28x28x6。下圖中,第二層到第三層,其中...
卷積神經網路中的引數計算
從keras中執行卷積神經網路我們呼叫model.summary 會發現所定義卷積神經網路的引數情況。我們寫這樣乙個卷積網路 from keras import models from keras import layers model models.sequential model.add lay...
一維卷積神經網路 卷積神經網路中的計算
卷積的基本介紹 卷積操作後張量的大小計算 卷積參數量的計算 卷積flops的計算 感受野的計算 卷積神經網路中的卷積是指定義好卷積核 kernel 並對影象 或者特徵圖,feature map 進行滑動匹配,即對應位置相乘再相加。其特點就在於能夠捕捉區域性的空間特徵。具體過程如下圖所示 圖1 二維卷...