卷積神經網路中卷積核的作用是提取影象更高維的特徵,乙個卷積核代表一種特徵提取方式,對應產生乙個特徵圖,卷積核的尺寸對應感受野的大小。
經典的卷積示意圖如下:
5*5的影象使用3*3的卷積核進行卷積,結果產生3*3(5-3+1)的特徵影象。
卷積核的大小一般是(2n+1)*(2n+1)的奇數乘奇數大小(n>=1),最常用的有3*3,5*5,7*7的。之所有使用奇數*奇數而不是偶數*偶數大小的,主要原因有兩點:
1. 一般情況下,使用n*n大小的卷積核對大小為n*n的影象卷積,結果影象尺寸縮小為(n-n+1),這種卷積操作的都是影象上真實的畫素,不需要對影象進行擴充,也叫有效補白(valid padding)。
另一種補白方式是相同補白(same padding),在卷積核對影象執行相同補白(same padding)卷積時,要求卷積後影象大小跟原影象大小保持一致,這就需要提前給原影象做padding(補白)操作,即給影象增加額外的空白,增大影象尺寸使得卷積後大小為原影象大小,padding操作示意圖如下:
在相同補白(same padding)模式下,需要補充的畫素大小是n-(n-n+1)=n-1個,這裡的n表示的是卷積核大小,如果n為奇數,則n-1為偶數,補得這n-1個畫素可以在影象兩側對稱分布,如果使用偶數的卷積核,n-1為奇數,無法在影象兩側對稱分布。
2. 奇數卷積核有中心點,可以方便的確定位置,而偶數的卷積核不存在絕對的中心點。
在殘差網路的bootleneck殘差模組和googlenet的inception模組裡出現了1*1的卷積核:
與(2n+1)*(2n+1)的卷積核提取影象特徵順便降低影象尺寸不同,1*1的卷積核的作用是提公升或者降低特徵(個數)的維度,而不改變影象的寬高。這裡的維度是指影象的通道數(厚度,如rgb影象的通道數是3, 10個單通道的特徵圖一起組成通道數是10)。
例如經過某次卷積後,得到w*h*10的特徵圖,這裡通道數是10,如果需要降維成w*h*6,即把10個特徵圖減少到6個。這就需要使用6組,每組10個的1*1的卷積核來實現。10個1*1的卷積核和上一層w*h*10的特徵圖卷積,得到乙個w*h*1的特徵圖,使用6組這樣的1*1卷積核,就可以得到w*h*6維度的特徵圖,實現了特徵圖的壓縮,而不改變影象的寬高。這裡一共有6*10=60個可訓練引數。
同理,使用1*1卷積核也可以實現特徵圖公升維。
從影象處理的角度看1*1的卷積操作,可以把它理解成是把n個影象按n個不同的係數融合的操作,需要多少個特徵圖就融合多少次。
卷積神經網路 1 1 卷積核
卷積神經網路中卷積核的作用是提取影象更高維的特徵,乙個卷積核代表一種特徵提取方式,對應產生乙個特徵圖,卷積核的尺寸對應感受野的大小。經典的卷積示意圖如下 5 5的影象使用3 3的卷積核進行卷積,結果產生3 3 5 3 1 的特徵影象。卷積核的大小一般是 2n 1 2n 1 的奇數乘奇數大小 n 1 ...
卷積神經網路中用1 1 卷積
假設我有乙個轉換層輸出 n,形張量 n批量大小 f是卷積濾波器的數量 是空間尺寸 假設將此輸出饋入v1的轉換層1x1過濾器,零填充和跨度1。然後此1x1轉換層的輸出將具有形狀 1 h 因此1x1轉換濾鏡可用於更改濾鏡空間中的尺寸。如果?1 那麼我們在增加維數,如果?1 我們正在降低維度,即過濾器維度...
卷積神經網路中1 1卷積核的用處
最近在看google的inception resnet以及一些最新的cnn網路時發現其中常常用到1 1的卷積核,一直不太明白這樣不就是複製前一層網路資訊嗎?後來發現1 1卷積真的很有用。對於一張28 28 1這樣的單通道,其的確沒什麼作用。但是如果對於28 28 16中多通道,使用6個1 1卷積核之...