1. 經典神經網路alexnet的理解
(1)卷積層、池化層 和全連線層的理解
從巨集觀的角度看,如果我們要對一幅影象進行識別,從影象處理--畫素的角度來看,每個物體不同畫素的組成構成了不同的特徵,通過這些特徵來區分物體是什麼;那麼卷積層就是從影象中提取各種特徵,池化層就是為了簡化特徵提取最重要的特徵,這樣可以減少識別的時間,全連線層就是把這些特徵都組合起來,這樣才能判斷這個影象中到底是什麼東西
(2)卷積層是如何實現特徵提取的
首先,從影象處理的角度,卷積本意是尋求兩個影象的相似度,例如我們要提取影象中的圓,那麼我們用乙個圓的模板與之進行卷積,值最高的地方就是最相似的地方,這樣就可以找到圓的位置了;廣義來講,也就實現了圓這個特徵的提取,那麼在深度學習中,我們是不知道我們要提取什麼特徵,那麼卷積的核也就是模板是不知道的,這個引數呢也就是通過不斷學習得到的,這樣才能提取出影象中有用的特徵
卷積核的厚度(第三維的尺寸)=被卷積的影象的通道數
卷積核的個數=卷積操作後輸出的通道數(第三維的尺寸)
(3)池化層如何實現特徵融合和降維的
池化也是一種類似卷積的操作,只是池化層的所有引數都是超引數,都是不用學習得到的。池化操作的降維改變的是影象的寬高,而不改變通道數。
(4)全連線層如何實現分類的
全連線層其實就是之前學深度學習時最簡單的y=wx+b,通過第一層將卷積的結果再經過卷積生成列向量,通過啟用函式將其進行非線性化,從而分類
總結,alexnet是由五個卷積層和三個全連線層組成的八層網路,引數個數:60m,分類數目:1000類
努力成為優秀視覺工程師的一天(四)
1.googlenet網路的深度理解 googlenet相比alexnet和vgg網路,最大的改進就是引入了inception模組,為什麼引入呢?根據前面神經網路的經驗,我們需要通過增加網路深度 層數 來提高訓練效果,但缺點是 層數多導致引數多,容易引起過擬合 梯度消失等問題,因此呢,解決上述缺點的...
努力成為優秀視覺工程師的一天(一)
1.經過rgbd slam的一系列配置之後,重新開啟pytorch的深度學習演算法,在pycharm中在呼叫matplotlib庫的時候遇到了如下問題 大概意思就是說 qt平台有些問題,這個問題乍一看我以為是之前配置qt的時候環境變數修改了一些東西,所以按照網上各種修改環境變數的做法,通通做了一遍,...
努力成為優秀的工程師
華為諾亞方舟實驗室首席科學家李航結合自己的親身經驗,提出了成為優秀工程師應該遵循的五項原則 面對問題,解決問題 系統地解決問題 站在使用者角度看問題 以最小的代價獲得最大的效益 磨在細處。我一直在it企業的研究部門任職,迄今經歷了三家公司 nec 微軟 華為。工作都是既有基礎研究,又有產品開發。其實...