最近在看google的inception、resnet以及一些最新的cnn網路時發現其中常常用到1*1的卷積核,一直不太明白這樣不就是複製前一層網路資訊嗎?
後來發現1*1卷積真的很有用。對於一張28*28*1這樣的單通道,其的確沒什麼作用。但是如果對於28*28*16中多通道,使用6個1*1卷積核之後可以將其壓縮成28*28*6,也就是高和寬不變,改變了通道數。
好處1:inception中使用1*1卷積核,可以在某種程度上可以減少運算次數,同時不減少精度。
好處2:resnet中的block先會使用1*1降維 3*3 之後 再1*1 公升維,保證輸出和前一層輸入維數一致。
卷積神經網路 1 1 卷積核
卷積神經網路中卷積核的作用是提取影象更高維的特徵,乙個卷積核代表一種特徵提取方式,對應產生乙個特徵圖,卷積核的尺寸對應感受野的大小。經典的卷積示意圖如下 5 5的影象使用3 3的卷積核進行卷積,結果產生3 3 5 3 1 的特徵影象。卷積核的大小一般是 2n 1 2n 1 的奇數乘奇數大小 n 1 ...
卷積神經網路 1 1 卷積核
卷積神經網路中卷積核的作用是提取影象更高維的特徵,乙個卷積核代表一種特徵提取方式,對應產生乙個特徵圖,卷積核的尺寸對應感受野的大小。經典的卷積示意圖如下 5 5的影象使用3 3的卷積核進行卷積,結果產生3 3 5 3 1 的特徵影象。卷積核的大小一般是 2n 1 2n 1 的奇數乘奇數大小 n 1 ...
卷積神經網路中的1 1卷積
我們都知道,卷積核的作用在於特徵的抽取,越是大的卷積核尺寸就意味著更大的感受野,當然隨之而來的是更多的引數。早在1998年,lecun大神發布的letnet 5模型中就會出,影象空域內具有區域性相關性,卷積的過程是對區域性相關性的一種抽取。但是在學習卷積神經網路的過程中,我們常常會看到一股清流般的存...