考慮以下兩個隨機數組a
和b
:
a = np.random.randn(2, 3) #a.shape = (2, 3)
b = np.random.randn(2, 1) #
b.shape = (2, 1)
c = a + b
c
的維度是什麼?
答: b(列向量)複製3次,以便它可以和a的每一列相加,所以:c.shape = (2, 3)
考慮以下兩個隨機數組a
和b
:
a = np.random.randn(4, 3) #a.shape = (4, 3)
b = np.random.randn(3, 2) #
b.shape = (3, 2)
c = a * b
c
的維度是什麼?
答:運算子 「*」 說明了按元素乘法來相乘,但是元素乘法需要兩個矩陣之間的維數相同,所以這將報錯,無法計算
np.dot(a,b)
對a和b的進行矩陣乘法,而a*b
執行元素的乘法,考慮以下兩個隨機數組a
和b
:
a = np.random.randn(12288, 150) #a.shape = (12288, 150)
b = np.random.randn(150, 45) #
b.shape = (150, 45)
c = np.dot(a, b)
c
的維度是什麼?
答:c.shape = (12288, 45)
, 這是乙個簡單的矩陣乘法例子
注:15題和17題的區別如下:
矩陣乘法和陣列乘法:
引用:請考慮以下**段:
a = np.random.randn(3, 3)b = np.random.randn(3, 1)
c = a * b
c
的維度是什麼?
a.這會觸發廣播機制,b
會被複製3次變成(3*3),而*
操作是元素乘法,所以c.shape = (3, 3)【a,b矩陣的維度相同】
第二週 神經網路基礎 測驗部分
1.看一下下面的這兩個隨機數組 a 和 b a np.random.randn 4,3 a.shape 4,3 b np.random.randn 3,2 b.shape 3,2 c a b12 3請問陣列 c 的維度是多少?答 運算子 說明了按元素乘法來相乘,但是元素乘法需要兩個矩陣之間的維數相同...
改善深層神經網路 第二週優化演算法
理解小批量梯度下降 指數加權平均 指數加權平均修正偏差 adagrad rmsprop 動量梯度下降法 一共500 000個資料,每批資料1000個,需要5000批,0.1 學習率 n iterations 1000 m 100 theta np.random.randn 2,1 隨機初始值 for...
第二章 神經網路的數學基礎
下面展示一些內聯 片。2.神經網路的資料表示 1.標量 0d張量 import numpy as np x np.array 12 print x print x.shape 張量的形狀 print x.ndim 張量的維度 軸,0階 2.向量 1d張量 x np.array 11,23,5,9,1...