1.1卷積的基本操作與全連線層的區別
區域性連線、權值共享(滑動、權值一致)、輸入輸出資料結構化(保留結構)
1.2感受野大小計算
感受野定義:某層的特徵上的乙個點,cnn的原始輸入上能夠影響這一點取值的範圍的區域。
上一層的感受野加上當前(卷積核的尺寸-1)*前面每層的步長,然後和資料區域大小作比較。
1.3卷積層的輸出尺寸、參數量和計算量
輸出的尺寸=((輸入尺寸+2*padding-kernel_size)/步長)+1
向下取整。
tensorflow、keras不能顯示指定padding_size,可以選擇幾種方式:
padding=same:padding_size=k-1;
padding=valid: 不進行邊界填充
計算量:滑動視窗內卷積操作的計算量c(i)*kw*kh,滑動的次數其實就是輸出的特徵圖的資料個數,也就是c(0)*lw(0)*lh(0)整體計算量為兩個相乘。
1.4分組卷積及其應用場景
group convolution
普通的卷積操作在通道維度上都是全連線的(普通的卷積是每個卷積核都會和輸入的feature的所有通道卷積),分組卷積就是給輸入通道和輸出通道劃分同樣的組數,然後處於相同組號的輸入通道和輸出通道進行全連線。如果分為g組,那麼最終的參數量和計算量都會變為原來的1/g,舉例,輸入feature為n通道的,kernel=3x3,有n個,那麼最後得到的feature為n channel,那麼普通卷積的參數量3x3xnxn,分兩組的卷積的參數量為(3x3xn/2xn/2)x2變為原來的1/2,計算量也變為原來的1/2,因為分組的話kernel的channel為原來的1/2。
alexnet中使用,解決單gpu無法處理含有較大計算量和儲存需求的卷積層的問題,分組卷積分配到多個gpu上,目前更多用來構建移動裝置的小型網路模型。
1.5轉置卷積的主要思想
transposed convolution
思想就是矩陣的轉置操作,可以看作普通卷積的對稱操作:
(1)能將普通卷積的輸入輸出的尺寸變換逆反過來,不是反卷積
轉置卷積本質上對應的也是乙個普通卷積對應的矩陣乘法
正常的卷積:
轉置卷積:
相當於將輸入的資料進行了乙個補零和上取樣。
轉置卷積主要是對特徵圖進行擴張或者上取樣,語義分割decoder中會用到轉置卷積,輸出和原影象大小一致的圖的時候會用到。
1.6空洞卷積
dilated convolution
一般池化來進行下取樣操作,可以擴大感受野但是會損失資訊,如何不通過池化等下取樣操作來擴大感受野?空洞卷積引入了擴充套件率r,引入之後的卷積核尺寸為k+(r-1)(k-1)的大小。其感受野的計算和普通卷積的計算一致。
1.7變形卷積
deformable convolution
普通卷積束縛了網路的感受野形狀,限制了網路對於幾何形變的適應能力,deformable給卷積核的每乙個取樣點新增乙個可學習的偏移量,deformable引入了乙個平行分支來學習取樣點的位移偏移量,由於偏移量是小數,所以最終的位置需要雙線性插值。
《1。卷積神經網路》
1.簡述卷積的基本操作,並分析其與全連線層的區別 答 具有區域性連線和權值共享的特點。卷積操作能夠在輸出資料中大致保持輸入資料的結構資訊 2.在卷積神經網路中,如何計算各層的感受野大小?答 3.卷積層的輸出尺寸 參數量和計算量 答 輸出尺寸 1.簡述分組卷積及其應用場景 答 分組卷積就是將輸入通道和...
卷積神經網路學習1 卷積層
卷積神經網路常用於計算機視覺當中,應用在計算機視覺當中,就要面臨乙個挑戰,那就是輸入資料非常的大,假如輸入乙個1000 1000的,那麼他就有1000 1000 3 的rgb三通道 個資料,對於300w的資料量,那麼當我們第乙個隱藏層有1000個神經元進行全連線時,那麼將會有300w 1000個引數...
卷積神經網路入門 1 卷積型別
一般kernel size 3,padding取1,這樣feature map取決於stride 參數量 cincoutk k torch.nn.conv2d in channels,out channels,kernel size,stride 1,padding 0,dilation 1,gro...