1、灰度影象,邊緣檢測, 使用核函式的缺點,影象的向量會不斷的縮小,另外乙個就是邊緣的向量相比於中間的向量被覆蓋的次數會少很多。解決這個的方法就是padding在影象的周圍再新增一圈向量。
2、核函式通常是奇數維向量
3、卷積層,
池化層:選出某一區域的最大值,另外還有 平均池化,就是求乙個小區域的均值
,全連線層:類似於普通的神經網路,將最後的比如120*1的列向量全連線對映到80*1的列向量上
4、通常是乙個卷積層後面跟乙個池化層,然後有多個卷積層和池化層,也可以多個卷積層後跟乙個池化層。最後加上幾個全連線層,最後再加上softmax函式等。
5、卷積神經網路的作用,簡而言之就是在保持特徵的前提下,縮小所含的元素,這個可以從向量逐漸變小看出來。這樣也能減少神經網路所需要的引數,以便整個網路的快速形成。
6、le net-5:針對灰度圖訓練出來的:
9、resnets:殘差網路
在第二層進行啟用函式之前加上第一層的輸入,一起輸入到啟用函式裡。來運算。普通的網路隨著層數的增加,訓練錯誤也會增加,因此誤差剛開始隨著層數的增加,逐漸降低,但是當達到一定層數之後,誤差就會逐漸公升高,但是殘差網路有助於改善這一情況。並且會減弱梯度**以及梯度消失的情況。
10、1*1的卷積核可以幫助壓縮影象的通道,即厚度
11、inception網路:
訓練引數來決定使用哪乙個卷積層,即給每個卷積層或者池化層加上權重,然後訓練網路,讓網路來決定使用哪乙個卷積層,1*1可以減小計算規模,即在一般的卷積話層之間先加乙個1*1的卷積層,過度一下(有時也稱為瓶頸層,因為是利用1*1先縮小厚度,然後再使用卷積層增加到目標厚度,這樣一層化為兩層,原來的乘法運算被劃為先分乘,再加在一起)。
12、inception網路:
13、遷移學習,當資料量非常小時,將前面的層凍結起來,只訓練最後一層,或者凍結前面部分的層,訓練後面一部分的層的引數,如果資料量大時,也可以使用別人訓練好的引數作為初始化的引數,然後再來訓練所有的層
14、目標檢測:目標檢測中y被定義為乙個含有座標的標籤:
15、yolo演算法,
16、交並比:lou
17、anchor box
18、r-cnn:區域卷積神經網路,
吳恩達《卷積神經網路》
一 yolo algorithm 把輸入的分割成3x3個格仔或19x19個格仔,每個格仔進行檢測輸出八個特徵,3x3就輸出3x3x8個向量。yolo演算法的優點是不需要乙個演算法跑很多次。相反這是單次卷積實現,在處理計算時很多步驟都是共享的,而且執行速度非常快可以達到實時識別。物件中點的座標在哪個格...
吳恩達 卷積神經網路
卷積神經網路 卷積操作 設輸入n,filter為f,padding為p,步長 stride 為s 則卷積 不滿足結合律,滿足結合律還需要對filter進行水平和垂直翻轉 之後影象大小為 n 2p f s 1 向下取整 rgb影象卷積操作 同時相乘相加,三個channel輸出乙個值 為什麼cnn可以避...
吳恩達 深度學習筆記《卷積神經網路》
cnn的提出以及優勢 簡單卷積網路示例 池化層 其他使用卷積的原因 相比標準神經網路,對於大量的輸入資料,卷積過程有效地減少了 cnn 的引數數量,原因有以下兩點 1,引數共享 parameter sharing 特徵檢測如果適用於的某個區域,那麼它也可能適用於的其他區域。即在卷積過程中,不管輸入有...