所謂通道壓縮,network in network是怎麼做到的?
對於如下的二維矩陣,做卷積,相當於直接乘以2,貌似看上去沒什麼意義。
但是,對於下面這種32通道的資料,如果我用1個1x1x32的卷積核與其做卷積運算,得到的就是1個6x6的矩陣。
在這個過程中,發生了如下的事情:
同理,如果我用n個1x1x32的卷積核與其做卷積運算,得到的就是n個6x6的矩陣。
所以,1x1的卷積,可以從根本上理解為:有乙個全連線的神經網路,作用在了不同的32個位置上。
這種做法,通常稱為1x1卷積
或network in network
。它的主要作用,就是降低通道數量
。如下圖
28x28x192的資料,被32個1x1x192的卷積核作用後,就變為28x28x32的資料。這也就是所謂通道壓縮
,通道降維
。當然如果你願意,也可以增加通道維度。這在inception網路中很有用。
本篇參考了andrewng的deep learning課程。
1x1的卷積核有什麼作用
通道壓縮 通 通 減 一 1 x 1的卷積核作用 所謂通道壓縮,network in network是怎麼做到的?對於如下的二維矩陣,做卷積,相當於直接乘以2,貌似看上去沒什麼意義 但是,對於下面這種32通道的資料,如果我用1個1x1x32的卷積核與其做卷積運算,得到的就是1個6x6的矩陣 在這個過...
1X1中卷積核的作用
發現很多網路使用了1x1卷積核,這能起到什麼作用呢?另外我一直覺得,1x1卷積核就是對輸入的乙個比例縮放,因為1x1卷積核只有乙個引數,這個核在輸入上滑動,就相當於給輸入資料乘以乙個係數。不知道我理解的是否正確。我來說說我的理解,我認為1 1的卷積大概有兩個方面的作用吧 1.實現跨通道的互動和資訊整...
1x1卷積的作用
1x1卷積的作用 在架構內容設計方面,其中乙個比較有幫助的想法是使用1x1的卷積。這裡用1x1的過濾器進行卷積似乎用處不大。只是對輸入矩陣乘以某個數字。但這僅僅是對於6x6x1的通道來說1x1卷積效果不佳。如果是一張6x6x32的,那麼使用1x1過濾器進行卷積效果更好。具體來說 1x1卷積所要實現的...