新增截圖了,增加瓶頸層的解釋(聽說是某面試題,,,)
一般的卷積運算可以壓縮輸入的長度和寬度,1*1卷積核可以整合各個資料通道資訊縮小資料尺寸的深度,同時減小計算量
卷積核引數計算:卷積核的長度*卷積核的寬度*卷積核的個數
卷積計算量計算:輸出資料大小*卷積核的尺寸*輸入通道數
比如(懶得繪圖)求輸入28*28*192經過5*5*32的卷積核輸出為28*28*32的引數大小和運算量大小
① 引數計算:5*5*32
② 運算量計算:(28*28*32)*(5*5)*(192)≈1.2億
我們把上面你那個例子改一下在中間新增以乙個1*1的卷積核
28*28*192先通過乙個1*1*16卷積核得到28*28*16的大小然後再經過5*5*32的卷積核得到28*28*32的輸出,那麼輸入輸出都和前面那個例子是一樣的,只是中間多了乙個1*1的卷積核。我們來計算一下現在的計算量
所以total computational cost ≈1240萬和1.2億相比
看到了吧,就是新增了乙個1*1的卷積核就大大降低計算量的哦,同時應該注意新增了1*1產生的「bottleneck layer
」的意思
the end.
卷積核引數的計算及1 1卷積核
首先,明確乙個概念 卷積並不只是乙個二維的過程,實際上對於輸入的一般而言是三個通道的 r g b 那為什麼輸出的結果可以是128個通道呢?實際上經過卷積過後的通道數是由卷積核的個數來決定的,整個的卷積過程二維情況下也就是在每個通道下發生的卷積過程為 在多通道情況下的卷積情況如下 其實濾波器的維度應該...
1 1卷積核的作用
如何理解跨通道的資訊互動和整合呢?首先還得從三維卷積的計算開始。如圖所示,藍色部分是乙個7 7 n 維數 的feature map,黃色塊為3 3 3的卷積核,將卷積核對應到藍色特徵中可以得到乙個紅色陰影區域,舉個具體的例子 假設卷積核所有的引數都為1。那麼紅色部分的數值 1 1 4 1 3 1 2...
卷積神經網路 1 1 卷積核
卷積神經網路中卷積核的作用是提取影象更高維的特徵,乙個卷積核代表一種特徵提取方式,對應產生乙個特徵圖,卷積核的尺寸對應感受野的大小。經典的卷積示意圖如下 5 5的影象使用3 3的卷積核進行卷積,結果產生3 3 5 3 1 的特徵影象。卷積核的大小一般是 2n 1 2n 1 的奇數乘奇數大小 n 1 ...