vgg16
一、摘要
二、convnet的配置
所有隱藏層之後,都配有relu(rectified linear uint-修正線性單元)
vgg-16中的16指的是在這個網路中包含16個卷積層和全連線層。此外還有vgg-19,由於vgg-16和vgg-19的表現幾乎誤無差,且vgg-16的引數較vgg-19少,所以大多數人依然選取vgg-16
三、說明
①、卷積層使用3×3的濾波器,很容易看到兩層3×3的卷積層(兩層之間無池化層)的感受野和一層5×5的卷積層相同,三層3×3的卷積層有7×7的有效感受野。這種替換是合理有效的。
關於感受野的說明:通俗講為輸出特徵圖上的乙個單元對應輸入層上的區域大小
②、convnet-c使用了1×1的卷積濾波器,該卷積核的作用是什麼?
③、網路深度對結果的影響
四、模型引數說明
五、vgg-16的網路結構
注意:fc1000層後沒有relu啟用函式,而是用softmax層啟用。
六、參考文獻
原文)翻譯)
講解)視覺化)
站up詳講vgg16)
VGG16遷移學習實現
vgg16遷移學習實現 本文討論遷移學習,它是乙個非常強大的深度學習技術,在不同領域有很多應用。動機很簡單,可以打個比方來解釋。假設想學習一種新的語言,比如西班牙語,那麼從已經掌握的另一種語言 比如英語 學起,可能是有用的。按照這種思路,計算機視覺研究人員通常使用預訓練 cnn 來生成新任務的表示,...
整理VGG16預訓練學習筆記
原文 1什麼是遷移學習?神經網路需要用資料來訓練,它從資料中獲得資訊,進而把它們轉換成相應的權重。這些權重能夠被提取出來,遷移到其他的神經網路中,我們 遷移 了這些學來的特徵,就不需要從零開始訓練乙個神經網路了。2.什麼是預訓練模型?簡單來說,預訓練模型 pre trained model 是前人為...
VGG16模型理解
vgg16作為很入門的cnn網路,同時也有很多基於vgg16的改進網路,比如用於語義分割的segnet等。1 輸入224x224x3的,經過64個卷積核的兩次卷積後,採用一次pooling。經過第一次卷積後,c1有 3x3x3 個可訓練引數 2 之後又經過兩次128的卷積核卷積之後,採用一次pool...