np.random.rand(a)——隨機生成a個在[0,1)範圍內的資料。
time.time()——返回當前時間的時間戳(浮點秒數),可用來計算兩個時間點的間隔。
str(1000*(toc-tic))——可用把浮點型轉為字串,用於拼接字串。
np.dot(a, b)——若ab均為一維向量,則輸出為 a[i] * b[i],若a為二維向量,則輸出是矩陣乘法計算方法
np.zeros()——
c= np.zeros((3
,2))
print
(c)type
(c)>>
>[[
0.0.
][0.
0.][
0.0.
]]out[37]
:numpy.ndarray
v=[1
,2,3
]np.exp(v)
#輸出:array([ 2.71828183, 7.3890561 , 20.08553692])
總結:大量資料計算時,可考慮用向量化代替for迴圈,使程式執行更快。 吳恩達深度學習筆記
2.02 紅色為小標題,藍色比較重要 第四講第二週 4.2.1 為什麼要進行例項 4.2.2 經典網路 lenet 5網路當時還沒有padding,所以在卷積過程當中越來越小 也沒有relu函式,當時這個例子用的是sigmoid函式。超級引數不是很多。這個典型的網路有padding,使用的是relu...
吳恩達深度學習筆記
目錄導數的細節 向量化python中的廣播 第二部分深度學習內容 吳恩達講深度學習 1.資料量更大 2.演算法越來越優 3.業務場景越來越多樣化 4.學術界or工業界越來越卷 私以為 邏輯回歸是最簡單的二分類模型,也可以說是後續深度神經網路的基礎框架.達叔的演算法知識第一課.邏輯回歸的引數是w和b,...
吳恩達 深度學習 學習筆記
第一周 卷積神經網路 第二週 深度卷積網路 例項 第三週 目標檢測 首先我們來看一下普通的滑動視窗,首先給一張14 14 3的影象用16個5 5 3過濾器處理之後變成10 10 16的特徵圖,經過2 2的池化操作後變成 5 5 16 的特徵圖,然後新增乙個連線400個單元的全連線層,再新增乙個全連線...