經過卷積、啟用後的結果一般帶有大量原圖資訊。
上圖中卷積核提取的是豎直方向上的連續畫素,但是,被增強的畫素只佔了結果的1/3,對於多層網路,其餘重要性較低的資訊也被傳入了下一層網路,造成了不必要的浪費,因此需要用池化對卷基層得到的結果做聚合統計。池化的理論基礎是:影象相鄰位置的畫素是相關的,即使間隔一段尺寸對影象進行取樣,得到的結果依舊能保持大部分資訊。常用的池化方式有最大池化和均值池化。池化的另乙個重要作用是為卷積神經網路帶來一定的平移、旋轉和透視不變性。
上圖展示了池化如何為模型帶來平移不變性。原圖中垂直方向上的一段連續畫素被右移了乙個單位得到了平移後的,兩者經過尺寸為2*2,步長為1的最大池化後,得到了相同的結果。對於旋轉和透視,池化也可以達到類似的效果。但池化使模型具有對平移、旋轉、透視的抗性並不是沒有限制的,首先池化的效果依賴於卷積的結果,如果卷積沒有捕捉到上述變換後的特徵,池化也失去了抗平移、旋轉、透視的能力,其次,池化對上述三種變換的抗性和池化的尺寸有關,池化尺寸越大,抗性越強,但資訊丟失的也越多,其中利弊需要設計者權衡。
學習記錄 卷積神經網路 卷積與池化
卷積神經網路是深度學習中最經典的模型之一。當今大多數的深度學習經典模型中都能找到卷積神經網路的影子。卷積和池化可以追溯到lenet 5網路,這是由 lecun等人於1998年所提出的,其中的卷積與池化操作這一概念,對後來的卷積神經網路的發展影響巨大。它的網路結構主要包括卷積層 池化層和全連線層。卷積...
卷積神經網路學習筆記與心得(3)卷積
數字影象是乙個二維的離散訊號,對數字影象做卷積操作其實就是利用卷積核 卷積模板 在影象上滑動,將影象點上的畫素灰度值與對應的卷積核上的數值相乘,然後將所有相乘後的值相加作為卷積核中間畫素對應的影象上畫素的灰度值。從卷積的效果來看,在二維影象上進行卷積時,卷積核對所在區域上符合某種條件的畫素賦予較多的...
卷積與卷積神經網路
神經網路中的卷積是指用乙個卷積核 也叫濾波器 實質上是乙個矩陣,在影象上掃瞄一遍,得到乙個新的影象。掃瞄的實質,就是矩陣大小的影象畫素值,和卷積核做運算,然後得到新的畫素值,放到新的影象中 運算不是一行乘一列的乘法,而是哈達馬積,即對應位置的元素一一相乘。最後,把哈達馬積得到的矩陣上的每乙個元素求和...