利用上述**中的前五個公式完成了前向和後向傳播,也實現了對所有訓練樣本進行**和求導,再利用後兩個公式對梯度下降更新引數,這樣我們便利用向量化簡化了整個邏輯回歸的梯度下降演算法。
神經元節點的職責或功能
首先輸入層的特徵向量(矩陣),隱藏層的神經元節點先是計算特徵向量的線性組合,再是利用啟用函式計算啟用,最後是輸出標籤。
假設 img 是乙個(32,32,3)陣列,具有3個顏色通道:紅色、綠色和藍色的32x32畫素的影象。 如何將其重新轉換為列向量?
利用reshape函式方法,將三個32×32的矩陣轉換為32×32×3的列向量。
x=img.reshape((32 * 32 * 3, 1))
看一下下面的這兩個隨機數組「a」和「b」,計算陣列c的維度
a = np.random.randn(2,
3)# a.shape = (2, 3)
b = np.random.randn(2,
1)# b.shape = (2, 1)
c = a + b
b(列向量)複製3次,以便它可以和a的每一列相加,所以:c.shape = (2, 3)
看一下下面的這兩個隨機數組「a」和「b」,請問陣列「c」的維度是多少
運算子 「*」 說明了按元素乘法來相乘,但是元素乘法需要兩個矩陣之間的維數相同,所以將報錯無法計算。
假設你的每乙個例項有n
xn_x
nx個輸入特徵,想一下在x=[
x(1)
,x(2
)…x(
m)
]x=[x^, x^…x^]
x=[x(1
),x(
2)…x
(m)]
中,x
xx的維度是多少?
( nx
,m
)(n_x, m)
(nx,m
)回想一下,np.dot(a,b
在a和b上執行矩陣乘法,而`a * b』執行元素方式的乘法。 看一下下面的這兩個隨機數組「a」和「b」,請問c的維度是多少:
a = np.random.randn(
12288
,150
)# a.shape = (12288, 150)
b = np.random.randn(
150,45)
# b.shape = (150, 45)
c = np.dot(a, b)
c.shape = (12288, 45)
, 這是乙個簡單的矩陣乘法例子。
看一下下面的這個**片段:
# a.shape = (3,4)
# b.shape = (4,1)
for i in
range(3
):for j in
range(4
):c[i]
[j]= a[i]
[j]+ b[j]
請問要怎麼把它們向量化?
c = a + b.t
深度學習 吳恩達
第三週神經網路 啟用函式 第一門課 感謝黃博的參考筆記 一次梯度下降 正向傳播與反向傳播 一次反向傳播梯度下降 注意與機器學習課程不同的一點是,第一層不算樣本輸入 a t an z a tan z a tan z 的值域是位於 1和 1之間。a t anh z e z e zez e za tanh...
吳恩達深度學習筆記
2.02 紅色為小標題,藍色比較重要 第四講第二週 4.2.1 為什麼要進行例項 4.2.2 經典網路 lenet 5網路當時還沒有padding,所以在卷積過程當中越來越小 也沒有relu函式,當時這個例子用的是sigmoid函式。超級引數不是很多。這個典型的網路有padding,使用的是relu...
總結 吳恩達深度學習
從去年8月份開始,ai界大ip吳恩達在coursera上開設了由5們課組成的深度學習專項課程,掀起了一股人工智慧深度學習熱潮。這裡附上deeplearning.ai的官網 deeplearning.ai,也可以在網易雲課堂學習 有中文字幕 關於該深度學習專項課程,本人非常推薦!它對於理解各種演算法背...