卷積神經網路(基礎知識回顧) 第七講

2022-08-18 01:18:09 字數 1454 閱讀 4857

從上篇部落格中,我們可以了解搭建卷積神經網路的基礎步驟

資料輸入層/ input layer

• 卷積計算層/ conv layer

• relu激勵層 / relu layer

• 池化層 / pooling layer

• 全連線層 / fc layer

1.資料輸入層

該層要做的處理主要是對原始影象資料進行預處理,其中包括:

• 去均值:把輸入資料各個維度都中心化為0,如下圖所示,其目的就是把樣本的中心拉回到座標系原點上。

• 歸一化:幅度歸一化到同樣的範圍,如下所示,即減少各維度資料取值範圍的差異而帶來的干擾,比如,我們有兩個維度的特徵a和b,a範圍是0到10,而b範圍是0到10000,如果直接使用這兩個特徵是有問題的,好的做法就是歸一化,即a和b的資料都變為0到1的範圍。

• pca/白化:用pca降維;白化是對資料各個特徵軸上的幅度歸一化

2.卷積計算層

這一層就是卷積神經網路最重要的乙個層次,也是「卷積神經網路」的名字**。

在這個卷積層,有兩個關鍵操作:

• 區域性關聯。每個神經元看做乙個濾波器(filter)

• 視窗(receptive field)滑動, filter對區域性資料計算

先介紹卷積層遇到的幾個名詞:

• 深度/depth(解釋見下圖)

• 步長/stride (視窗一次滑動的長度)

• 填充值/zero-padding

影象深度是指儲存每個畫素所用的位數,也用於度量影象的色彩解析度。rgb深度為3

3.激勵層

把卷積層輸出結果做非線性對映。

4.池化層

池化層夾在連續的卷積層中間, 用於壓縮資料和引數的量,減小過擬合。

簡而言之,如果輸入是影象的話,那麼池化層的最主要作用就是壓縮影象。

池化層的具體作用。

1. 特徵不變性,也就是我們在影象處理中經常提到的特徵的尺度不變性,池化操作就是影象的resize,平時一張狗的影象被縮小了一倍我們還能認出這是一張狗的**,這說明這張影象中仍保留著狗最重要的特徵,我們一看就能判斷影象中畫的是乙隻狗,影象壓縮時去掉的資訊只是一些無關緊要的資訊,而留下的資訊則是具有尺度不變性的特徵,是最能表達影象的特徵。

2. 特徵降維,我們知道一幅影象含有的資訊是很大的,特徵也很多,但是有些資訊對於我們做影象任務時沒有太多用途或者有重複,我們可以把這類冗餘資訊去除,把最重要的特徵抽取出來,這也是池化操作的一大作用。

3. 在一定程度上防止過擬合,更方便優化。

參考:

卷積神經網路 基礎知識(1)

卷積神經網路 convolutional,簡稱cnn 是一類特殊的人工神經網路,區別於神經網路其他模型 如,遞迴神經網路 boltzmann機等 其最主要的特點是卷積運算操作 convolution operator 因此,在諸多領 域應用特別是影象相關任務上表現優異,諸如,影象分類 image c...

神經網路基礎知識

1 前饋神經網路 前饋神經網路描述的是網路的結構,是指每一層的神經元只接受前一層神經元的輸入,並且輸出到下一層。2 bp神經網路 3 mlp mlp是多層感知機也被稱為多層神經網路,是一種前向結構,包括輸入層 隱藏層和輸出層。至少三層結構 即隱藏層只有一層網路 如圖所示 4 cnn cnn就是著名的...

神經網路基礎知識(神經網路簡介)

一 生物神經網路 神經元的排列和突觸的強度 由複雜的化學過程決定 確立了神經網路的功能。突觸有兩種型別,興奮性突觸和抑制性突觸。前者產生正突觸後電位,後者產生負突觸後電位。抑制性 神經元雖然接收到其他神經元傳遞的資訊,但沒有向外傳遞資訊,該神經元稱 抑制性 的 興奮性 當乙個神經元的樹突接收的興奮資...