假設影象的大小為nxn,過濾器是fxf,那麼卷積運算的結果為(n-f+1)x(n-f+1)
為了解決這一問題,引入填充padding
在影象周圍填充一周的畫素點(通常畫素值為0),得到nxn → (n+2)x(n+2)的影象,經過卷積運算後得到nxn的影象,一般情況下卷積後影象的大小為(n+2p-f+1)x(n+2p-f+1)
( n×
n)×(
f×f)
→(n−
f+1)
×(n−
f+1)
(n\times n)\times (f\times f)→(n-f+1)\times (n-f+1)
(n×n)×
(f×f
)→(n
−f+1
)×(n
−f+1)[(
n+2p
)×(n
+2p)
]×(f
×f)→
(n+2
p−f+
1)×(
n+2p
−f+1
)[(n+2p)\times (n+2p)]\times (f\times f)→(n+2p-f+1)\times (n+2p-f+1)
[(n+2p
)×(n
+2p)
]×(f
×f)→
(n+2
p−f+
1)×(
n+2p
−f+1
)其中p = (f - 1)/2
計算機視覺中 f 通常是奇數,一般有兩個原因:
卷積中的步幅是另乙個構建卷積神經網路的基本操作:
設卷積步長stride為s
[ (n
+2p)
×(n+
2p)]
×(f×
f)→(
n+2p
−fs+
1)×(
n+2p
−fs+
1)[(n+2p)\times (n+2p)]\times (f\times f)→(\frac+1)\times (\frac+1)
[(n+2p
)×(n
+2p)
]×(f
×f)→
(sn+
2p−f
+1)
×(sn
+2p−
f+1
)如果商不是乙個整數怎麼辦?在這種情況下,我們向下取整
⌊ n+
2p−f
s+1⌋
×⌊n+
2p−f
s+1⌋
\left \lfloor \frac+1 \right \rfloor \times \left \lfloor \frac+1 \right \rfloor
⌊sn+2p
−f+
1⌋×⌊
sn+2
p−f
+1⌋這個原則實現的方式是,只在藍框完全包括在影象或填充完的影象內部時,才對它進行運算。如果有任意乙個藍框移動到了外面,就不進行相乘操作
卷積是通過兩個函式 f 和 g 生成第三個函式的一種數學運算元,表徵函式 f 與 g 經過翻轉和平移的重疊部分函式值乘積對重疊長度的積分。
卷積神經網路的padding規則
宣告 這裡記錄的是李金洪老師 深度學習之tensorflow 一書上的知識點 tensorflow裡使用tf.nn.conv2d函式來實現卷積,其格式如下。tf nn.conv2d input,filter,strides,padding,use cudnn on gpu none,name non...
神經網路 卷積神經網路
這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...
神經網路 卷積神經網路
1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...