最大池化在googlenet的**中提到,
先附上著名的網路結構googlenet及其延伸版本,以便自己日後的學習。
inception[v1]: going deeper with convolutions
inception[v2]: batch normalization: accelerating deep network training by reducing internal covariate shift
inception[v3]: rethinking the inception architecture for computer vision
inception[v4]: inception-v4, inception-resnet and the impact of residual connections on learning
**中提到了這樣一句話:max-pooling layers result in loss of accurate spatial information,作者也意識到了最大池化會導致某些精確的空間資訊丟失,但是他在這裡僅僅提到了,沒有去深入思考,這讓我聯想到了最近的乙個新模型,capsnet,神經網路提出者hinton的新**。其中的思想也很新穎,而且我對capsnet能否與遷移學習相聯絡有著比較大的興趣,正在嘗試著跟從實驗室學長去研究。
pooling的結果是使得特徵減少,引數減少,但pooling的目的並不僅在於此。pooling目的是為了保持某種不變性(旋轉、平移、伸縮等),常用的有mean-pooling,max-pooling和stochastic-pooling三種。
mean-pooling,即對鄰域內特徵點只求平均。
max-pooling,即對鄰域內特徵點取最大。
(1)鄰域大小受限造成的估計值方差增大;
(2)卷積層引數誤差造成估計均值的偏移。
一般來說,mean-pooling能減小第一種誤差,更多的保留影象的背景資訊,max-pooling能減小第二種誤差,更多的保留紋理資訊。
stochastic-pooling則介於兩者之間,通過對畫素點按照數值大小賦予概率,再按照概率進行亞取樣,在平均意義上,與mean-pooling近似,在區域性意義上,則服從max-pooling的準則。
池化選擇 全域性最大池化和全域性平均池化的實驗分析
類響應圖示例 圖中高亮區域就是根據label的注意圖高響應區域 具體得到的這個相應區的方法是 1 訓練主幹網路得到特徵圖 2 進行全域性池化 圖中用的gap,也可以使用gmp 3 對全域性池化的結果做全連線得到全連線引數 w 4 把全連線引數作為權重對特徵圖進行加權求和 上圖最下方的公式 根據對影象...
TensorFlow 最大池化
由 aphex34 自己的作品 cc by sa 4.0,通過 wikimedia commons 共享 這是乙個最大池化的例子max pooling 用了 2x2 的濾波器 stride 為 2。四個 2x2 的顏色代表濾波器移動每個步長所產出的最大值。例如 1,0 4,6 生成6,因為6是這4個...
池化 和卷積
在卷積神經網路中,我們經常會碰到池化操作,而池化層往往在卷積層後面,通過池化來降低卷積層輸出的特徵向量,同時改善結果 不易出現過擬合 為什麼可以通過降低維度呢?因為影象具有一種 靜態性 的屬性,這也就意味著在乙個影象區域有用的特徵極有可能在另乙個區域同樣適用。因此,為了描述大的影象,乙個很自然的想法...