卷積引數共享
池化層(pooling layer)
卷積神經網路結構
1.classification
2.retrieval ()
3.detection:分類和回歸**:自動駕駛汽車
4.segmentation(分割):識別元素
使用gpu訓練網路 視訊記憶體大可以輸入大批量的batch。
卷積神經網路有深度的概念
[input-conv-relu-pool-fc]
輸入層卷積層
啟用函式
池化層全連線層
假設有乙個32x32x3的影象,5x5x3的filter;3為深度,filter深度要與原影象一致。
首先將影象化為乙個個小塊,將所有的小塊與filter 進行特徵提取,卷積後得到特徵圖,特徵圖上的乙個值就是原圖的乙個小塊。
可以使用多個filter 對原圖進行過濾。
也可以在特徵圖上再次進行操作,對特徵圖進行分塊,再次進行特徵提取。
原圖->低層次特徵->中層次特徵->高層次特徵
一步步濃縮後可做分類或回歸任務。
選擇滑動窗與原影象做內積。
f11與第乙個框做內積,即相乘再相加。
f11+f12+f13+b得到輸出3。每次滑動2個。(得到第乙個綠色輸出)
使用filter w1做相同的演算法,得到上圖第二個綠色輸出。
滑動步長:stride(上圖為2)
stride 越小輸出值(得到的特徵)越多。
若stride 太大,則會遺漏特徵資訊。
若stride 太小,則會降低效率。
pading
上圖pad 為1,在的周圍新增了1圈0。
pad 為2,在的周圍新增了2圈0。
特徵圖的大小
輸出:ho=
hi−f
(siz
e)+2
×ps+
1h_o=\frac +1
ho=sh
i−f
(siz
e)+2
×p+1wi
=wi−
f(si
ze)+
2×ps
+1w_i=\frac +1
wi=sw
i−f
(siz
e)+2
×p+
1here ,
h
ih_i
hi:輸入的長
p
pp:pading
s
ss:stride
權重引數可以用來共享,乙個神經元(filter上的乙個值)可以對應,原圖上的輸入*權重引數,這會導致權重引數的數量增大,為此,可以將所有神經元的權重引數作為一致的引數。
對特徵圖進行特徵壓縮:
1.mean:取平均值進行代表
2.max:選出最大值作為代表
relu:啟用函式
神經網路 卷積神經網路
這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...
神經網路 卷積神經網路
1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...
卷積神經網路 有趣的卷積神經網路
一 前言 最近一直在研究深度學習,聯想起之前所學,感嘆數學是一門樸素而神奇的科學。f g m1 m2 r 萬有引力描述了宇宙星河運轉的規律,e mc 描述了恆星發光的奧秘,v h d哈勃定律描述了宇宙膨脹的奧秘,自然界的大部分現象和規律都可以用數學函式來描述,也就是可以求得乙個函式。神經網路 簡單又...