膨脹卷積(空洞卷積、dilation convolution/atrous convolution
)的本質是為了
1.避免下取樣而減少feature map的資訊
2.感受野又不變
如圖,(c)為膨脹卷積,考慮亮黃色的神經元,視野為1-5,在(b)的情況中,需要再加一層,才有乙個神經元的視野有1-5的情況,但這樣引數就變成了好幾倍了。
caffe中的膨脹係數dilation可以理解為對 原始卷積尺寸-1 的倍數,以此求出膨脹後的卷積核尺寸
kernel_size_after_dilate - 1
= dilate * (
kernel_size_before_dilate - 1)
可以認為原始卷積核每個數中間加了dilate - 1
個0,變成了kernel_size_after_dilate的正常卷積操作
(caffe中為dilation,tensorflow中對應為rate引數)
此時的(same)pad大小為
pad
=int
((kernel_size
+(dilation -1
) *(kernel_size -1
)) -1)
/2
膨脹卷積的缺點 卷積 反卷積與膨脹卷積
卷積 多 1 的對映 本質 在對輸入做9 1的對映關係時,保持了輸出相對於input中的位置性關係 對核矩陣做以下變形 卷積核的滑動步驟變成了卷積核矩陣的擴增 卷積的矩陣乘法變成以下形式 核矩陣重排,輸入featuremap變形為向量 反卷積 1 多 的對映 deconvlution transpo...
卷積神經網路膨脹卷積
卷積核就是影象處理時,給定輸入影象,輸入影象中乙個小區域中畫素加權平均後成為輸出影象中的每個對應畫素,其中權值由乙個函式定義,這個函式稱為卷積核 又稱濾波器。卷積核的大小一般有1x1,3x3和5x5的尺寸 一般是奇數x奇數 同樣提取某個特徵,經過不同卷積核卷積後效果也不一樣 可以發現同樣是銳化,5x...
談談1 1的卷積核
最近在看yolo3,發現對於1 1的卷積核的理解有些遺忘,藉此強化一下記憶。最早我對此有些疑惑,1 1卷積核不會改變高 height 和寬 width 在stride和padding等其他引數為預設狀態時 但 通道數 channel 可以隨意變化,例如在pytorch中 nn.conv2d 256,...