在訊號/影象處理領域,卷積的定義是:
其定義是兩個函式中乙個函式經過反轉和位移後再相乘得到的積的積分。
訊號處理中的卷積。過濾器 g 經過反轉,然後再沿水平軸滑動。在每乙個位置,我們都計算 f 和反轉後的 g 之間相交區域的面積。這個相交區域的面積就是特定位置出的卷積值。
互相關是兩個函式之間的滑動點積或滑動內積。互相關中的過濾器不經過反轉,而是直接滑過函式 f。f 與 g 之間的交叉區域即是互相關。
在深度學習中,卷積中的過濾器不經過反轉。嚴格來說,這是互相關。我們本質上是執行逐元素乘法和加法。但在深度學習中,直接將其稱之為卷積更加方便。這沒什麼問題,因為過濾器的權重是在訓練階段學習到的。如果上面例子中的反轉函式 g 是正確的函式,那麼經過訓練後,學習得到的過濾器看起來就會像是反轉後的函式 g。因此,在訓練之前,沒必要像在真正的卷積中那樣首先反轉過濾器。
空洞卷積有兩種實現方式:
第一種是插入空洞(零元素)或者對輸入特徵地圖同等稀疏地取樣,來對濾波器進行上取樣。
第二種,通過乙個等於atrous convolution rate r的因子對輸入特徵圖進行子取樣,對每個 r×r 可能的偏移,消除隔行掃瞄生成乙個 r^2 降低的解析度圖。接下來對這些中間特徵圖使用標準卷積,隔行掃瞄生成原始影象解析度。
空洞卷積,r=2, stride=1
空洞卷積的作用
擴大感受野:能不丟失解析度,且擴大感受野。這在檢測,分割任務中十分有用。一方面感受野大了可以檢測分割大目標,另一方面解析度高了可以精確定位目標。
捕獲多尺度上下文資訊
缺點:在實際中不好優化,速度會大大折扣。
空洞卷積實際卷積核大小:
k=k+(k-1)(r-1),k為原始卷積核大小,r為空洞卷積引數空洞率;
感受野遞推公式:
r(n-1) = f(n) + ( r(n) - 1 ) * s(n).
其中以n=0代表第零層。r(0)表示感受野。就是最高level的featuremap乙個畫素單元在幾次卷積(下取樣)之後對應原圖的畫素單元個數(也即是最後乙個畫素的輸出佔了原輸入多少畫素)。一般是11對應感受野 rr . 假設影象是方形的我們只推一邊的線性長度為例。1→r這樣。fn是得到第n層卷積用的filter邊長(大小一般表示為f*f)。sn是filter移動步幅。
卷積層輸出計算公式:
n = (w − f + 2p )/s+1
輸入大小 w×w,filter大小 f×f,步長 s,padding的畫素數 p
輸出大小為 n×n
舉例經過三個r=2; 3x3,s=1的filter(即三層5x5, s=1的filter進行卷積)後乙個1*1大小畫素在原圖中的感受野。
計算:r2 = f3 + (r3-1)*s =5+(1-1)*1= 5
r1 = f2 + (r2-1)*s =5+(5-1)*1 = 5+4
r0 = f1 + (r1-1)*s =5+(9-1)*1 =5+(5+4-1)*1=5+4+4=13
深度學習中的卷積型別
使用卷積操作的動機是讓網路關注有意義的區域性特徵,同時因為其引數共享的機制,能夠極大地降低參數量,提高計算效率。深度學習發展至今,衍生出了多種卷積型別。除了常規卷積外,還有轉置卷積 空洞卷積 可分離卷積等。以2d卷積為例,乙個卷積操作通常包含以下幾個引數 卷積核尺寸 kernel size 卷積核的...
深度學習 卷積理解
一.深度卷積神經網路學習筆記 一 假設輸入影象尺寸為w,卷積核尺寸為f,步幅 stride 為s 卷積核移動的步幅 padding使用p 用於填充輸入影象的邊界,一般填充0 那麼經過該卷積層後輸出的影象尺寸為 w f 2p s 1。2.它寫出為什麼會用padding?卷積核大小該如何確定?strid...
14 深度學習 卷積
補交作業 第十二次作業 垃圾郵件分類 第十三次作業 垃圾郵件分類2 這兩個作業電腦顯示卡炸了,返廠修了兩周,所以沒有完成,只能在手機上直播課,謝謝老師 第六次作業 邏輯回歸 這個作業我4月23日就已經弄好了,但是忘記交了,老師可以檢視一下這篇部落格的日期 1.簡述人工智慧 機器學習和深度學習三者的聯...