1、卷積 卷積
2、one hot 編碼
one hot 編碼及資料歸一化
獨熱編碼(one-hot encoding)介紹及實現
3、tensorflow
tensorflow中文社群
4、keras
keras文件的中文版
5、反向傳播演算法 bp
詳解反向傳播演算法(上)
詳解反向傳播演算法(下)
bp神經網路的數學原理及其演算法實現
反向傳播演算法(過程及公式推導)
向傳播演算法的直觀理解
6、損失函式(誤差函式)
神經網路之損失函式
深度神經網路(dnn)損失函式和啟用函式的選擇
損失函式要除以2分之1
不同的損失函式會對深度神經網路帶來什麼樣的影響?
神經網路的交叉熵損失函式
神經網路啟用函式和損失函式
設定資料與損失函式
7、梯度下降
梯度下降(gradient descent)小結
8、規範化
數學 · 神經網路(四)· normalize
9、神經網路
機器學習演算法原理之人工神經元和單層神經網路
10、深度學習
deep learning(深度學習)學習筆記整理系列
11、 規則化
機器學習中的範數規則化之(一)l0、l1與l2範數
機器學習中的範數規則化之(二)核範數與規則項引數選擇
級聯相關神經網路
一般的神經網路是固定好拓撲結構,然後訓練權重和閾值。級聯相關神經網路是從乙個小網路開始,自動訓練和新增隱含單元,最終形成乙個多層的結構。級聯相關神經網路具有以下優點 後向傳播演算法執行緩慢主要有兩個原因 步長問題和目標移動問題。為了快速學習,我們通常希望步長越大越好。然而,如果步長過大,訓練網路不能...
神經網路相關引數
關於建立 神經網路 段的引數說明 net feedforwardnet n,trainlm n為隱藏層大小,預設為10 trainlm 是被指定的訓練函式 levenberg marquardt 演算法t p net.trainparam.goal 0.001 goal是最小均方誤差的訓練目標 ne...
神經網路相關模型
logistic regression模型 y wtx b 記住使用的啟用函式 是sigmoid函式。損失函式 l y y y log y 1 y log 1 y 衡量 值y 與真實值y的差距,越小越好。代價函式 損失均值,j w,b 1 m mi 1l y i y i 是w和b的函式,學習的過程就...