池化層主要有以下幾個作用:
a 降維
b 實現非線性
c 可以擴大感知野
d 可以實現不變性:平移不變性,旋轉不變性,尺度不變性
個人覺得主要是兩個作用:
1. invariance(不變性),這種不變性包括translation(平移),rotation(旋轉),scale(尺度)
2. 保留主要的特徵同時減少引數(降維,效果類似pca)和計算量,防止過擬合,提高模型泛化能力
(1) translation invariance:
這裡舉乙個直觀的例子(數字識別),假設有乙個16x16的,裡面有個數字1,我們需要識別出來,這個數字1可能寫的偏左一點(圖1),這個數字1可能偏右一點(圖2),圖1到圖2相當於向右平移了乙個單位,但是圖1和圖2經過max pooling之後它們都變成了相同的8x8特徵矩陣,主要的特徵我們捕獲到了,同時又將問題的規模從16x16降到了8x8,而且具有平移不變性的特點。圖中的a(或b)表示,在原始中的這些a(或b)位置,最終都會對映到相同的位置。
下圖表示漢字「一」的識別,第一張相對於x軸有傾斜角,第二張是平行於x軸,兩張相當於做了旋轉,經過多次max pooling後具有相同的特徵
下圖表示數字「0」的識別,第一張的「0」比較大,第二張的「0」進行了較小,相當於作了縮放,同樣地,經過多次max pooling後具有相同的特徵
池化層的作用
池化層夾在連續的卷積層中間,用於壓縮資料和引數的量。簡而言之,如果輸入是影象的話,那麼池化層的最主要作用就是壓縮影象。個人理解的同resize方法類似 雙線性插值法,鄰近法 只不過池化層用的是取最大值法。個人覺得主要是兩個作用 invariance 不變性 這種不變性包括translation 平移...
卷積神經網路池化層和卷積層作用
個人覺得主要是兩個作用 1.invariance 不變性 這種不變性包括translation 平移 rotation 旋轉 scale 尺度 2.保留主要的特徵同時減少引數 降維,效果類似pca 和計算量,防止過擬合,提高模型泛化能力 1 translation invariance 這裡舉乙個直...
雜談池化層
池化層是模仿人的視覺系統對資料進行降維,用更高層次的特徵表示影象。實施池化的目的 1 降低資訊冗餘 2 提公升模型的尺度不變性 旋轉不變性 3 防止過擬合。池化層的常見操作包含以下幾種 最大值池化,均值池化,隨機池化,中值池化,組合池化等。出現的原因 影象深度學習中影象尺寸過大,引入池化以減少引數矩...