隨機初始化資料
確定迭代次數
進入迭代迴圈
前向傳播, 主要目的是計算出al
分輔助函式的好處:
計算cost
計算\(dal\), 目的是初始化反向傳播的起點
反向傳播, 主要目的是計算出grads
分輔助函式的好處:
更新引數
達到了指定的迭代次數, 退出迴圈
dropout正則化:
應用: 在計算機視覺中十分常見
## 啟用函式選擇
hidden layer中不會使用\(sigmoid function\), 但是在output layer, 如果是乙個二分類問題, 使用\(sigmoid function\)
一般地, 在hidden layer使用relu或者tanh
relu的導數:np.int64(relu(z) > 0)
mini-batch
####
在向量公式中, 如果是乙個列向量, 則在轉為矩陣的時候將他們按照axis=1的方向堆積
在向量公式中, 如果是乙個行向量, 則在轉為矩陣的時候將他們按照axis=0的方向堆積
神經網路深層網路實現
隨機初始化資料 確定迭代次數 進入迭代迴圈 前向傳播,主要目的是計算出al 分輔助函式的好處 計算cost 計算 dal 目的是初始化反向傳播的起點 反向傳播,主要目的是計算出grads 分輔助函式的好處 更新引數 達到了指定的迭代次數,退出迴圈 dropout正則化 應用 在計算機視覺中十分常見 ...
Tensorflow 深層神經網路
維基百科對深度學習的定義 一類通過多層非線性變換對高複雜性資料建模演算法的合集.tensorflow提供了7種不同的非線性啟用函式,常見的有tf.nn.relu,tf.sigmoid,tf.tanh.使用者也可以自己定義啟用函式.3.1.1 交叉熵 用途 刻畫兩個概率分布之間的距離,交叉熵h越小,兩...
初探深層神經網路
深度學習與深層學習網路 tensorflow中,tensor就是多維陣列,維基百科對深度學習的精確定義為 一類通過多層非線性變換對高複雜性資料建模演算法的合集 因為深層神經網路是實現 多層非線性變換 最常用的一種方法,所以在實際中基本上可以認為深度學習就是深層神經網路的代名詞。從維基百科給出的定義可...