卷積神經網路

2021-09-24 16:13:10 字數 1823 閱讀 9565

卷積引數共享

池化層(pooling layer)

卷積神經網路結構

1.classification

2.retrieval ()

3.detection:分類和回歸**:自動駕駛汽車

4.segmentation(分割):識別元素

使用gpu訓練網路 視訊記憶體大可以輸入大批量的batch。

卷積神經網路有深度的概念

[input-conv-relu-pool-fc]

輸入層卷積層

啟用函式

池化層全連線層

假設有乙個32x32x3的影象,5x5x3的filter;3為深度,filter深度要與原影象一致。

首先將影象化為乙個個小塊,將所有的小塊與filter 進行特徵提取,卷積後得到特徵圖,特徵圖上的乙個值就是原圖的乙個小塊。

可以使用多個filter 對原圖進行過濾。

也可以在特徵圖上再次進行操作,對特徵圖進行分塊,再次進行特徵提取。

原圖->低層次特徵->中層次特徵->高層次特徵

一步步濃縮後可做分類或回歸任務。

選擇滑動窗與原影象做內積。

f11與第乙個框做內積,即相乘再相加。

f11+f12+f13+b得到輸出3。每次滑動2個。(得到第乙個綠色輸出)

使用filter w1做相同的演算法,得到上圖第二個綠色輸出。

滑動步長:stride(上圖為2)

stride 越小輸出值(得到的特徵)越多。

若stride 太大,則會遺漏特徵資訊。

若stride 太小,則會降低效率。

pading

上圖pad 為1,在的周圍新增了1圈0。

pad 為2,在的周圍新增了2圈0。

特徵圖的大小

輸出:ho=

hi−f

(siz

e)+2

×ps+

1h_o=\frac +1

ho​=sh

i​−f

(siz

e)+2

×p​+1wi

=wi−

f(si

ze)+

2×ps

+1w_i=\frac +1

wi​=sw

i​−f

(siz

e)+2

×p​+

1here ,

h

ih_i

hi​:輸入的長

p

pp:pading

s

ss:stride

權重引數可以用來共享,乙個神經元(filter上的乙個值)可以對應,原圖上的輸入*權重引數,這會導致權重引數的數量增大,為此,可以將所有神經元的權重引數作為一致的引數。

對特徵圖進行特徵壓縮:

1.mean:取平均值進行代表

2.max:選出最大值作為代表

relu:啟用函式

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...

卷積神經網路 有趣的卷積神經網路

一 前言 最近一直在研究深度學習,聯想起之前所學,感嘆數學是一門樸素而神奇的科學。f g m1 m2 r 萬有引力描述了宇宙星河運轉的規律,e mc 描述了恆星發光的奧秘,v h d哈勃定律描述了宇宙膨脹的奧秘,自然界的大部分現象和規律都可以用數學函式來描述,也就是可以求得乙個函式。神經網路 簡單又...