神經網路 1x1 filter的作用

2022-07-27 10:00:13 字數 1004 閱讀 5892

在設計卷積神經網路架構時,有時候想壓縮input的width 和 height,通常的做法便是 加一層pooling layer。

但是第三維的資訊,有時候過多,而且過於複雜,這時候就要用到1x1xchannel的filter了。

如圖:

1x1x192的filter相當於對的某乙個畫素點進行神經網路的全連線,並且在矩陣計算後,把channel從192變為32.

並且可以消減算力,比如想把28x28x192的影象以5x5的32個filter轉換為28x28x32的影象,則可以新增一層bottleneck layer也就是16個1x1x192的filter,作為過渡

google inception net 首次出現在 ilsvrc 2014 的比賽中(和 vggnet 同年),就以較大優勢拔得頭籌。那屆比賽中的 inception net 一般被稱為 inception v1(version 1),其最大的優勢在於控制 了參數量(也就控制了計算量)的同時,仍然能夠獲得非常好的分類效能 —— top-5 錯誤率 6.67%。

其中大量運用了1x1的 filter,原因是:

因此乙個 1×1

'>1×1

1×1 的卷積就可以很自然地將這些相關性很高的、在同一空間位置但不同通道的特徵連線在一起,這也正是 1×1

'>1×1

1×1的卷積會頻繁地應用到 inception net 中的原因。

1×1'>1×1

1×1 卷積所連線的節點的相關性是最高的,而稍微大一點尺寸的卷積,3×3

'>3×3

3×3、5×5

'>5×5

5×5 的卷積所連線的節點相關性也很高,因此可進一步地使用一些稍大尺寸的卷積,增加特徵多樣性(diversity)

神經網路(1)

一 什麼是神經網路 神經網路模型 knn 於生物體的神經系統,是一組連線的輸入 輸出單元,每個連線都與乙個權重相關聯。神經網路模式可以學習資料的特點,訓練的資料不同,產生的模型不同。應用場景 不知道用什麼數學模型合適 知道應用什麼模型但不知道模型複雜度時可以使用。比如要做分類問題,但屬於非線性的切分...

神經網路 1 快速了解神經網路

常規的神經網路我們可以知道包括 輸入層,隱藏層,輸出層 如 傳播過程為 h x w1 b1 y h w2 b2 需要注意 一系列線性方程的運算最終都可以用乙個線性方程表示。也就是說,上述兩個式子聯立後可以用乙個線性方程表達。對於兩次神經網路是這樣,就算網路深度加到100層,也依然是這樣。這樣的話神經...

神經網路基礎1

1.背景 1.1 以人腦中的神經網路為啟發,歷史上出現過很多不同版本 1.2 最著名的演算法是1980年的 backpropagation 2.多層向前神經網路 multilayer feed forward neural network 2.1 backpropagation被使用在多層向前神經網...