一、輸入的四個維度
2)height/weight:的高和寬。
3)channels:的通道數,黑白**就是1,rgb就是3。
例如我們的輸入是x =【333,28,28,3】,則代表我們有333個寬和高都是28的黑白**(單通道**)。
二、卷積核的四個維度
1)height/weight:卷積核矩陣的維度
2)inchannels:與輸入的通道數相等。如何理解這個引數的意思呢?這個引數代表的是我們所操作的影象的通道數。例如,我們有上例的x的通道數為3,那這個inchannels也是3。我們要做的是,將這個卷積核分別與a的三個通道卷積,相加作為輸出。
3)outchannel:輸出的特徵數。這個引數是自己選定的。
現在假設我們x=【333,28,28,3】的輸入,w=【5,5,3,32】。那麼輸出是什麼呢?首先輸出數不變,仍是333。其次,我們先假設大小也不變(後文會討論)。我們的操作是,對於任意333張中的任意一張a,用32個卷積核去卷積,這樣我們每張就會得到32個特徵,那麼得到的新的通道數就是32(對應前面的rgb的通道數是3)。因此我們的得到的輸出是【333,28,28,32】(假設得到的大小不變).如下圖所示。
4)、步長的維度
步長的維度一般設定【1,a,a,1】。第乙個和第四個分別代表跳過**的數量和跳過維度的數量,因為我們要訓練每一張**和每乙個維度,所以上述都設定為1(以上是我的猜測qaq)。中間的則代表我們在**長寬跳過的畫素數。這裡,網上有兩個盛傳的公式:
卷積:((w-f+2p)/s )+ 1
池化:(w-f)/s + 1.
例如池化矩陣的大小和步長都是2*2的。那麼池化後的高:(28-2)/2 +1 = 14,寬:(28-2)/2 + 1 =14.
關於池化層和卷積層的引數問題就講到這裡。本文寫的相當倉促,所以可能會有大量的漏洞和不足,望指正。
Keras卷積 池化層學習
1.con1d keras.layers.convolutional.conv1d filters,kernel size,strides 1,padding valid dilation rate 1,activation none,use bias true,kernel initializer...
卷積神經網路池化層和卷積層作用
個人覺得主要是兩個作用 1.invariance 不變性 這種不變性包括translation 平移 rotation 旋轉 scale 尺度 2.保留主要的特徵同時減少引數 降維,效果類似pca 和計算量,防止過擬合,提高模型泛化能力 1 translation invariance 這裡舉乙個直...
卷積層 池化層的理解 基礎知識
關於卷積層我們先來看什麼叫卷積操作 下圖較大網格表示一幅,有顏色填充的網格表示乙個卷積核,卷積核的大小為3 3。假設我們做步長為1的卷積操作,表示卷積核每次向右移動乙個畫素 當移動到邊界時回到最左端並向下移動乙個單位 卷積核每個單元內有權重,下圖的卷積核內有9個權重。在卷積核移動的過程中將上的畫素和...