密集連線層(精度97.8%)------>卷積神經網路(99.3%) 兩者的區別在於:dense層從特徵空間學到的是全域性模式,而卷積層學到時是區域性模式
1 卷積神經網路學到的模式具有平移不變性(視覺世界根本上來說就具有平移不變性),即在影象右下角學到某個模式後可以在任何地方識別這個模式。對於密集連線網路來說如果出現在新的位置,它只能重新學習這個模式。
2 卷積神經網路可以學到模式的空間層次結構(視覺世界根本上具有空間層次結構)。如下圖,第乙個卷積層學習到區域性模式如邊緣,第二個卷積層將學習由第一層特徵組成的更大的模式。
卷積工作原理如上圖所示
輸出的寬度和高度可能和輸入的不同,原因:1 邊界效應(可以通過對輸入特徵圖進行填充來抵消) 2 使用了步幅(可以理解為取樣跨度)
最大池化運算:對特徵圖進行下取樣,特徵圖的尺寸都會減半 26*26------>13*13
最大池化是從輸入特徵圖中提取視窗,並輸出每個通道的最大值,通常使用2*2的視窗和步幅2,目的是下取樣2倍,一方面可以較少需要處理的特徵圖的元素個數,其次可以讓連續卷積層的觀察視窗越來越大,從而引入空間過濾器的層級結構。
用來解決小型資料集的影象分類的問題的思路:1從頭開始訓練乙個小型模型 2用預訓練的網路做特徵提取(對於卷積神經網路而言特徵提取就是取出之前訓練好的網路的卷積基) 3 對預訓練的網路進行微調
第五章 深度學習用於計算機視覺
下面展示一些內聯 片。1.卷積神經網路cnn 手寫數字分類 mnist資料集 1.網路架構 例項化乙個小型的卷積神經網路 from keras import models from keras import layers network models.sequential 因為需要將同乙個模型多次例...
計算機視覺 深度學習基礎
與神經網路的區別 傳統一般三層以內,深度可達上千層 傳統通常是全連線,深度形式多樣 共享權值,跨層的反饋等 目標函式 均方誤差 交叉熵 交叉熵能在深度學習模型下快速提高精度 為了避免交叉熵出現0,使用softmax層來突出最大值並轉換成概率 激勵函式 sigmoid relu 當神經元一層層疊加之後...
計算機視覺與深度學習公司
深度學習是大資料下最熱門的趨勢之一。上乙個十年是網際網路的時代,下乙個十年將是人工智慧的時代。國內已經產生大量的人工智慧公司,分布在不同的領域。2016年是人工智慧的元年,2017年將迎來 人工智慧 的春天。未來幾年也是人工智慧在金融 醫療 教育等大資料行業以及感知互動領域全面滲透的時期,我們正迎來...