w:影象寬,h:影象高,d:影象深度(通道數)
f:卷積核寬高,n:卷積核(過濾器)個數
s:步長,p:用零填充個數
卷積後輸出影象大小:
width=(w-f+2p)/s+1
height=(h-f+2p)/s+1
卷積後輸出影象深度: n=d
輸出影象大小: (width,height,n)
weight個數: ffdn
bias個數: n
總結:卷積輸出大小=[(輸入大小-卷積核(過濾器)大小+2p)/步長]+1
如卷積核寬高為3時 padding 選擇1
如卷積核寬高為5時 padding 選擇2
如卷積核寬高為7時 padding 選擇3
w:影象寬,h:影象高,d:影象深度(通道數)
f:卷積核寬高,s:步長
池化後輸出影象大小:
w=(w-f)/s+1
h=(h-f)/s+1
池化後輸出影象深度: n=d
總結:池化輸出大小=[(輸入大小-卷積核(過濾器)大小)/步長]+1
卷積神經網路 池化層
池化層的作用 增加平移不變性 降取樣,即降維 增大感受野 平移的不變性是指當我們對輸入進行少量平移時,經過池化函式後的大多數輸出並不會發生改變。區域性平移不變性是乙個有用的性質,尤其是當我們關心某個特徵是否出現,而不關心它出現的具體位置時。保留主要特徵的同時減少引數和計算量,防止過擬合,提高模型泛化...
卷積神經網路池化層和卷積層作用
個人覺得主要是兩個作用 1.invariance 不變性 這種不變性包括translation 平移 rotation 旋轉 scale 尺度 2.保留主要的特徵同時減少引數 降維,效果類似pca 和計算量,防止過擬合,提高模型泛化能力 1 translation invariance 這裡舉乙個直...
卷積神經網路中的「池化層」
池化 pooling 是卷積神經網路中另乙個重要的概念,它實際上是一種形式的降取樣。有多種不同形式的非線性池化函式,而其中 最大池化 max pooling 是最為常見的。它是將輸入的影象劃分為若干個矩形區域,對每個子區域輸出最大值。直覺上,這種機制能夠有效地原因在於,在發現乙個特徵之後,它的精確位...