深度神經網路 筆記(二)

2021-10-12 07:50:03 字數 319 閱讀 4886

cnn比多層感知器(mlp)表現更好,原因為:

cnn=輸入層+隱含層+全連線層

mlp存在兩個問題

cnn可以接收矩陣作為輸入,卷積層儲存了空間結構。定義乙個卷積視窗,即濾波器或卷積核,在影象上滑動卷積核。

影象為乙個從

彩色影象是乙個函式。每個

dropout在前向傳播時隨機關閉節點,從而避免權重收斂到相同的位置。完成之後,開啟所有節點並進行反向傳播。

dropout機制只在訓練期間使用,不可用在執行時或者測試集上。

卷積層是cnn中主要的層型別,每個神經元都連線到輸入層的某個區域,這個區域稱為感受野。

Python深度學習筆記(二)神經網路

學習深度學習過程中的筆記和大家分享。訓練神經網路主要圍繞這四個方面 1,層 神經網路的基本資料結構是層,它是乙個資料處理模組,將輸入張量轉換成輸出張量。不同的張量格式與不同的資料處理型別需要用到不同的層。簡單的向量資料儲存在 sample,features 的2d張量中,通常用全連線層 對應kera...

深度學習 神經網路筆記

rnn 遞迴神經網路 一 神經網路的種類 基礎神經網路 單層感知機,執行緒神經網路,bp神經網路,hopfield神經網路等 高階神經網路 玻爾茲曼機,受限玻爾茲曼機,遞迴神經網路等 深度神經網路 深度置信網路,卷積神經網路,迴圈神經網路,lstm聖經網路等 一 感知機 svm 有n個輸入資料,通過...

神經網路和深度學習(二)淺層神經網路

1 計算神經網路的輸出 正向傳播 矩陣表示 向量化 2 多個樣本的向量化 正向傳播 3 啟用函式 1 sigmoid函式僅用於二分分類的情況,較少使用 2 tanh函式絕大多數情況下優於sigmoid函式 3 relu函式是預設的常用啟用函式 4 leaking relu 帶洩露的relu函式 4 ...