提取區域性區域內的特徵
輸入(
輸出feature 長(寬)的計算:
區域性連線(對輸入的部分區域提取):影象資料在空間上與距離較近的區域有關,與距離較遠的基本無關,所以神經元只需接受區域性輸入
權重共享(): 有多個卷積核,每個生成乙個新的feature map(影象),新的feature map(圖形)上的每乙個畫素都來自同乙個卷積核。
每個卷積核提取不同的特徵,卷積核提取在影象不同位置上的特徵。
經啟用函式後,池化
啟用函式
池化:maxpooling取灰度值最大的畫素點(保留最主要的特徵),mean pooling 區域內特徵的平均值代表這個區域的特徵。why make function? 乙個區域內的特徵可能在另乙個區域同樣適用,對大的影象,對不同位置的特徵進行聚合統計。
卷積核kernel size越大,感受野越大,引數也多
對於1*1的卷積核,稀疏度不宜太高,作用:
進行資訊整合,跨通道pooling。
進行卷積核通道數的降維或公升維。
實現訊號復原,在全卷積網路(fcn)中,實現上取樣。
kernel size固定,padding=0,strid=1,輸入經conv 的輸出,再經deconv,獲得的輸出能與輸入大小相同。deconv 的輸入i,padding 同樣的size,單此處不叫padding。
對輸入補零,卷積核,先左右翻轉,再上下翻轉(即轉180度),轉置後的卷積核與補零的輸入卷積,即可得到輸出。
或,當卷積操作轉換為矩陣操作時,卷積核變卷積矩陣後,轉置,再與輸入矩陣卷積,即得輸出矩陣。
注:no padding: 將輸入補同樣size的0;
對於conv的stride>1時,deconv的輸入中間插零個數 = s - 1作為新的輸入;
eg: conv:i=5,k=3,s=2,p=1,out=3
deconv: i『=3,k=3,s=1,p=1,out=5
注:視覺化理解
卷積和反卷積
n image h 2 pad h kernel h stride h 1 image w 2 pad w kernel w stride w 1 image h 輸入影象的高度 image w 輸入影象的寬度 pad h 在輸入影象的高度方向兩邊各增加pad h個單位長度 因為有兩邊,所以乘以2 ...
膨脹卷積的缺點 卷積 反卷積與膨脹卷積
卷積 多 1 的對映 本質 在對輸入做9 1的對映關係時,保持了輸出相對於input中的位置性關係 對核矩陣做以下變形 卷積核的滑動步驟變成了卷積核矩陣的擴增 卷積的矩陣乘法變成以下形式 核矩陣重排,輸入featuremap變形為向量 反卷積 1 多 的對映 deconvlution transpo...
反卷積 轉置卷積
搞明白了卷積網路中所謂deconv到底是個什麼東西後,不寫下來怕又忘記,根據參考資料,加上我自己的理解,記錄在這篇部落格裡。第一次看到deconv這個詞,以為deconv的結果就是卷積的逆,覺得神奇,不禁產生了 哦?轉置的卷積就可以求逆了嗎?這樣的想法,然後在matlab裡面實驗求證,我還記得當時以...