首先,我們我們知道深度學習中網路的計算量代表時間複雜度,參數量代表空間複雜度。
從resnet的**中可知(resnet**可在這個文章中的第六部分找到)152層的殘差網路在時間複雜度上和vgg16是一樣大的。
我們以vgg16的第一層卷積為例:
輸入影象224 * 224 * 3,輸出224 * 224 * 64,卷積核大小為3 * 3.
計算量: times = 224 * 224 * 3 * 3 * 64=8.7 * 10^7
參數量: space = 3 * 3 * 3 * 64=1728
我們再對最後一層卷積進行計算:
輸入 14 * 14 * 512,輸出 14 * 14 * 512,卷積核大小為3 * 3
計算量: times = 14 * 14 * 3 * 3 * 512 * 512 = 4.6 * 10^8
參數量: space = 3 * 3 * 512 * 512 = 2.4 * 10^6
我最後對最後一層全連線層進行計算:
全連線層可以看成是一種特殊的卷積層,上層為1 * 1 * 4096,下層為 1 * 1 * 1000,使用的是1 * 1的卷積核進行卷積。
計算量: times = 1 * 1 * 1 * 1 * 4096 * 1000 = 4 * 10^6
參數量: space = 1 * 1 * 4096 * 1000 = 4 * 10^6
vgg16網路總結:
卷積層的時間複雜度大致是在同一數量級的。
隨著網路深度的加深,卷積層的空間複雜度快速上公升(每層的空間複雜度是上一層的兩倍)。
全連線層的空間複雜度比卷積層的最後一層還大。
應該是vgg16參數量更多,因為resnet152是用了bottleneck design結構,這個結構有兩個1 * 1 和乙個3 * 3的卷積組成,大大縮減了參數量。(關於bottleneck可以參考這篇文章的第一部分)
深度學習筆記(24) 卷積層
乙個典型的卷積神經網路的卷積層,而通常有三層 首先介紹的是卷積層conv,從conv的向前傳播開始 前向傳播中乙個操作就是 z 1 w 1 a 0 b 1 其中 a 0 x 執行非線性函式得到 a 1 即 a 1 g z 1 這裡的輸入是a 0 也就是x,這些過濾器用變數 w 1 表示 在卷積過程中...
深度學習筆記017卷積層
看到一句話,其實卷積層就是一種濾波器,放大它感興趣的,縮小它不感興趣的,很有道理。二維卷積層的數學表達 這裡這個w其實就是kernel,是在這裡通過這種方式學習出來的引數,表現出來的就是乙個矩陣。b是偏差,通過廣播機制作用給y。二維交叉和二維卷積,就差乙個翻轉的關係 為了簡單,我們把負號刪掉了。所以...
深度學習筆記016卷積層基礎之前
對於分類問題,利用mlp會出現模型太大 大到離譜 的問題。比如你分類貓狗的模型的引數比世界上所有的狗和貓都多,這顯然是不對的。1 平移不變性 2 區域性性 卷積就是乙個特殊的全連線層 總結 乙個系統,輸入是不穩定的,輸出是穩定的,那麼我們就可以用卷積來求這個系統的存量。跳出吃飯 消化這個例子,我們可...