在設計卷積神經網路架構時,有時候想壓縮input的width 和 height,通常的做法便是 加一層pooling layer。
但是第三維的資訊,有時候過多,而且過於複雜,這時候就要用到1x1xchannel的filter了。
如圖:
1x1x192的filter相當於對的某乙個畫素點進行神經網路的全連線,並且在矩陣計算後,把channel從192變為32.
並且可以消減算力,比如想把28x28x192的影象以5x5的32個filter轉換為28x28x32的影象,則可以新增一層bottleneck layer也就是16個1x1x192的filter,作為過渡
google inception net 首次出現在 ilsvrc 2014 的比賽中(和 vggnet 同年),就以較大優勢拔得頭籌。那屆比賽中的 inception net 一般被稱為 inception v1(version 1),其最大的優勢在於控制 了參數量(也就控制了計算量)的同時,仍然能夠獲得非常好的分類效能 —— top-5 錯誤率 6.67%。
其中大量運用了1x1的 filter,原因是:
因此乙個 1×1
'>1×1
1×1 的卷積就可以很自然地將這些相關性很高的、在同一空間位置但不同通道的特徵連線在一起,這也正是 1×1
'>1×1
1×1的卷積會頻繁地應用到 inception net 中的原因。
1×1'>1×1
1×1 卷積所連線的節點的相關性是最高的,而稍微大一點尺寸的卷積,3×3
'>3×3
3×3、5×5
'>5×5
5×5 的卷積所連線的節點相關性也很高,因此可進一步地使用一些稍大尺寸的卷積,增加特徵多樣性(diversity)
神經網路(1)
一 什麼是神經網路 神經網路模型 knn 於生物體的神經系統,是一組連線的輸入 輸出單元,每個連線都與乙個權重相關聯。神經網路模式可以學習資料的特點,訓練的資料不同,產生的模型不同。應用場景 不知道用什麼數學模型合適 知道應用什麼模型但不知道模型複雜度時可以使用。比如要做分類問題,但屬於非線性的切分...
神經網路 1 快速了解神經網路
常規的神經網路我們可以知道包括 輸入層,隱藏層,輸出層 如 傳播過程為 h x w1 b1 y h w2 b2 需要注意 一系列線性方程的運算最終都可以用乙個線性方程表示。也就是說,上述兩個式子聯立後可以用乙個線性方程表達。對於兩次神經網路是這樣,就算網路深度加到100層,也依然是這樣。這樣的話神經...
神經網路基礎1
1.背景 1.1 以人腦中的神經網路為啟發,歷史上出現過很多不同版本 1.2 最著名的演算法是1980年的 backpropagation 2.多層向前神經網路 multilayer feed forward neural network 2.1 backpropagation被使用在多層向前神經網...