我們可以看到,卷積過程其實還是基於乙個固定的矩陣,在另外乙個矩陣不斷一格一格掃過去的到的數值的和,產生的乙個新的矩陣,我們以作為比較會發現:粉紅色矩陣和綠色矩陣在根本上有很大不一樣,卷積之後的維數降低了.所以規律可以得到:粉紅色最後的卷積結果矩陣維度=綠色矩陣維數-橙色矩陣維數+1
多通道資料的卷積過程input data size: a*a*b
convolution size: c*c*b
其中 a>b
output data size: (a-c+1)*(a-c+1)*\1
直接將結果相加即可
我們可以發現其實跟之前沒什麼不一樣:還是以三個矩陣之間的運算,但是我們很容易發現,它並不是一行一行掃過去的,橙色矩陣維度是黃色矩陣的整數倍,所以池化的最終的結論是要把原來的維度減少到1/n.這是池化最根本的原理(當然也有特殊情況。)
那個粉紅色矩陣,他每一次移動多少格,格仔就是步長!!padding操作用以解決這個問題「如果我不想最後減少維度,我只希望卷積,怎麼辦呢?」現在我們來解決這個問題:比如:我們需要做乙個300*300的原始矩陣,用乙個3*3卷積核(粉紅色矩陣)來掃,掃出來,按照之前公式,結果的矩陣應該是:298*298的矩陣,但是這樣很難計算,減得也不多,反而增加我計算難度,還不如池化(pooling)來得乾脆是吧!那我們就在300*300矩陣外面周圍加一圈「0」,記住,是在外面外包一層「0」
重點是:這樣的300*300就變成了302*302的矩陣,這樣就可以完全避開卷積後那兩層的抵消。
橙色矩陣
池化 和卷積
在卷積神經網路中,我們經常會碰到池化操作,而池化層往往在卷積層後面,通過池化來降低卷積層輸出的特徵向量,同時改善結果 不易出現過擬合 為什麼可以通過降低維度呢?因為影象具有一種 靜態性 的屬性,這也就意味著在乙個影象區域有用的特徵極有可能在另乙個區域同樣適用。因此,為了描述大的影象,乙個很自然的想法...
卷積和池化的區別
2015年08月17日 16 46 31 12540人閱讀收藏 舉報 deep learning 深度學習 12 1 卷積 當從乙個大尺寸影象中隨機選取一小塊,比如說 8x8 作為樣本,並且從這個小塊樣本中學習到了一些特徵,這時我們可以把從這個 8x8 樣本中學習到的特徵作為探測器,應用到這個影象的...
關於tensorflow中卷積池化運算的相關引數
import tensorflow as tf import numpy as np x tf.constant 1,2,3,4 4,5,6,7 7,8,9,10 10,11,12,13 x tf.reshape x,1,4,4,1 y tf.nn.max pool x,ksize 1,2,2,1 ...