第一周 卷積神經網路
第二週 深度卷積網路:例項**
第三週 目標檢測
首先我們來看一下普通的滑動視窗,首先給一張14*14*3的影象用16個5*5*3過濾器處理之後變成10*10*16的特徵圖,經過2*2的池化操作後變成 5*5*16 的特徵圖,然後新增乙個連線400個單元的全連線層,再新增乙個全連線層最後扔到softmax中,假設有4個類別,最後將概率最大的類別作為結果。
接下來我們將其中的全連線層變成卷積層,用400個5*5*16的過濾器去處理就相當上面的全連線層,然後再用400個1*1*400的過濾器去處理,最後用4個1*1*400的過濾器處理最終得到1*1*4的輸出層。
假設我們輸入進神經網路的大小是14*14*3,測試集的大小是16*16*3,將輸入進的加上黃色條塊使得大小是16*16*3,用16個5*5*16的過濾器處理後變成12*12*16,原的四個角相當對應於特徵圖的四個角,再經過2*2的池化操作後變成6*6*16,再經過400個5*5*16過濾器處理後變成2*2*400,再經過400個1*1*400過濾器處理後還是2*2*400,再經過4個1*1*400變成2*2*4,每乙個角上的矩陣的**值對應原對應的區域。
同理我們在遇到其他大小的時,要得到原影象多個不同區域的**值都可以用這個方法。但是有乙個缺點就是邊框的位置可能不夠準確,比如說一些目標可能比較長或者比較寬導致物件的一部分沒有被邊框包含。
4.5 人臉驗證與二分類(face verification and binary classification)
另乙個訓練神經網路的方法是選取一對siamese網路(引數相同)同時計算輸入的影象,最後將其輸入到邏輯回歸單元進行**,相同的人結果為1,不同為0;
這裡有乙個小的trick可以提公升部署的效果,當系統遇到一張新的時,不需要重複計算資料庫中已有影象的特徵編碼,而可以直接使用預先計算好的編碼。
4.6 什麼是神經風格遷移
已有內容影象和風格影象,可以生成相應風格的內容影象。
4.7 深度卷積網路學習什麼
吳恩達深度學習筆記
2.02 紅色為小標題,藍色比較重要 第四講第二週 4.2.1 為什麼要進行例項 4.2.2 經典網路 lenet 5網路當時還沒有padding,所以在卷積過程當中越來越小 也沒有relu函式,當時這個例子用的是sigmoid函式。超級引數不是很多。這個典型的網路有padding,使用的是relu...
吳恩達深度學習筆記
目錄導數的細節 向量化python中的廣播 第二部分深度學習內容 吳恩達講深度學習 1.資料量更大 2.演算法越來越優 3.業務場景越來越多樣化 4.學術界or工業界越來越卷 私以為 邏輯回歸是最簡單的二分類模型,也可以說是後續深度神經網路的基礎框架.達叔的演算法知識第一課.邏輯回歸的引數是w和b,...
深度學習 吳恩達
第三週神經網路 啟用函式 第一門課 感謝黃博的參考筆記 一次梯度下降 正向傳播與反向傳播 一次反向傳播梯度下降 注意與機器學習課程不同的一點是,第一層不算樣本輸入 a t an z a tan z a tan z 的值域是位於 1和 1之間。a t anh z e z e zez e za tanh...