看了好多部落格,也看過**,對於反卷積,轉置卷積的理解一直模模糊糊,對於反卷積,轉置卷積到底是不是一回事一直是乙個問號。直到今天對same卷積做了一次小小的嘗試,心中才有了乙個思路(不知道對不對),之所以之前一頭霧水,原因是對same卷積的誤解。在tensorflow中,tf.nn.conv2d()函式中的padding=『same』,當strides=[1,1,1,1]的時候,卷積之後的輸出特徵圖大小和輸入一致,但當strides=[1,2,2,1]的時候,卷積之後的輸出特徵圖大小是輸入大小的1/2。如下圖所示
當步長為3的時候,卷積之後的輸出特徵圖大小是輸入大小的1/3,如下圖所示,所以stride決定了下取樣的倍數。
總結:
深度學習這塊反卷積和轉置卷積操作一樣,只不過是卷積的逆向操作。在某些領域反卷積應該等於full卷積,即下圖
反卷積(轉置卷積)的理解
參考 開啟鏈結 就是這個圖啦,其中藍色部分是輸入的feature map,然後有3 3的卷積核在上面以步長為2的速度滑動,可以看到周圍還加里一圈padding,用更標準化的引數方式來描述這個過程 二維的離散卷積 n 2 方形的特徵輸入 i i i 方形的卷積核尺寸 k k k 每個維度相同的步長 s...
反卷積 轉置卷積
搞明白了卷積網路中所謂deconv到底是個什麼東西後,不寫下來怕又忘記,根據參考資料,加上我自己的理解,記錄在這篇部落格裡。第一次看到deconv這個詞,以為deconv的結果就是卷積的逆,覺得神奇,不禁產生了 哦?轉置的卷積就可以求逆了嗎?這樣的想法,然後在matlab裡面實驗求證,我還記得當時以...
轉置卷積 反卷積
借鑑於此個部落格,寫的非常好 轉置卷積 transposed convolution 也叫做反卷積 deconvolution pytorch中可以使用torch.nn.convtranspose2d 來呼叫,caffe中對應的轉置卷積層為deconv layer 作用 在 中用於對影象上取樣。操作...