比如輸入是28*28的單通道,其輸入shape為[batch_size, 28, 28, 1];
第一層卷積為32個5*5卷積核,其shape為[5,5,1,32],其步長strides為[1,1,1,1],緊接著是第一層的2*2的max_pooling,其形狀為[1,2,2,1],其步長strides為[1,2,2,1];
第二層卷積為64個5*5卷積核,其shape為[5,5,32,64],其步長strides為[1,1,1,1],緊接著是第一層的2*2的max_pooling,其形狀為[1,2,2,1],其步長strides為[1,2,2,1];
padding全部使用same;
那麼影象的尺寸經過以上兩次卷積,兩次池化後的變化如下:
[batch_size, 28, 28, 1]
↓ (第一層卷積)
[batch_size, 28, 28, 32]
↓ (第一層池化)
[batch_size, 14, 14, 32]
↓ (第二層卷積)
[batch_size, 14, 14, 64]
↓ (第二層池化)
[batch_size, 7, 7, 64]
如果上述所有的卷積核,池化核以及步長都保持不變,但是全部使用valid模式,那麼尺寸變化如下:
[batch_size, 28, 28, 1]
↓ (第一層卷積)
[batch_size, 24, 24, 32]
↓ (第一層池化)
[batch_size, 12, 12, 32]
↓ (第二層卷積)
[batch_size, 8, 8, 64]
↓ (第二層池化)
[batch_size, 4, 4, 64]
卷積池化操作輸出的尺寸大小
演示 coding utf 8 import tensorflow as tf import numpy as np created on tue jul 17 10 03 21 2018 author c.h.tf.reset default graph 這一句話非常重要,如果沒有這句話,就會出現...
卷積 池化 反卷積 空洞卷積的輸出大小計算公式
對於卷積經過某層後的特徵圖大小計算方式 h2 h1 k 2p s 1 w2 w1 k 2p s 1 總結 卷積輸出大小 輸入大小 卷積核大小 2 padding 步長 1 所以當stride為1時,當卷積核的大小比padding的兩倍大1時,可以不改變特徵圖的尺寸,只改變通道數。對於池化 h h k...
池化 和卷積
在卷積神經網路中,我們經常會碰到池化操作,而池化層往往在卷積層後面,通過池化來降低卷積層輸出的特徵向量,同時改善結果 不易出現過擬合 為什麼可以通過降低維度呢?因為影象具有一種 靜態性 的屬性,這也就意味著在乙個影象區域有用的特徵極有可能在另乙個區域同樣適用。因此,為了描述大的影象,乙個很自然的想法...