最近在看《深度學習之美:ai時代的資料處理與最佳實踐》發現對於卷積核深度的理解有點混淆。
於是又看了《tensorflow:實戰google深度學習框架(第2版)》,分清了卷積核輸入深度和輸出深度。
但是,對於如何把3×3×3的矩陣卷積到3×3×6 ? 終於在《動手學深度學習》中搞懂了!
(3)經過上述操作,我們卷積後的得到的矩陣還是二維的,即乙個平面。那麼如果我們需要挖掘更深層次的特徵,是不是可以把操作(2)多重複幾次,也就是使用不同的卷積核 / 過濾器進行多次卷積,這樣便會生成多個特徵矩陣。卷積核個數也就是我們說的卷積核輸出深度,而的第三位通道數則為卷積核輸入深度,和卷積核的寬、高統稱為卷積核的尺寸,卷積過程見下圖:
注:這裡為了作圖方便,n個卷積核內容都一樣,所以輸出的特徵矩陣也一樣,實際會用不同的卷積核構造輸出深度。
今天看了篇新資料,裡面卷積講的挺好的,引用如下:
【一文讀懂faster rcnn】
猜你喜歡:??⭐【隨筆】深度學習之美——楊家有女初長成,養在深閨人未識
⭐【隨筆】啟用函式是怎樣一種存在?
卷積神經網路中的1 1卷積
我們都知道,卷積核的作用在於特徵的抽取,越是大的卷積核尺寸就意味著更大的感受野,當然隨之而來的是更多的引數。早在1998年,lecun大神發布的letnet 5模型中就會出,影象空域內具有區域性相關性,卷積的過程是對區域性相關性的一種抽取。但是在學習卷積神經網路的過程中,我們常常會看到一股清流般的存...
卷積神經網路 1 1 卷積核
卷積神經網路中卷積核的作用是提取影象更高維的特徵,乙個卷積核代表一種特徵提取方式,對應產生乙個特徵圖,卷積核的尺寸對應感受野的大小。經典的卷積示意圖如下 5 5的影象使用3 3的卷積核進行卷積,結果產生3 3 5 3 1 的特徵影象。卷積核的大小一般是 2n 1 2n 1 的奇數乘奇數大小 n 1 ...
卷積神經網路 1 1 卷積核
卷積神經網路中卷積核的作用是提取影象更高維的特徵,乙個卷積核代表一種特徵提取方式,對應產生乙個特徵圖,卷積核的尺寸對應感受野的大小。經典的卷積示意圖如下 5 5的影象使用3 3的卷積核進行卷積,結果產生3 3 5 3 1 的特徵影象。卷積核的大小一般是 2n 1 2n 1 的奇數乘奇數大小 n 1 ...