第 一 門課 神經網路和深度學習(一)

2021-08-21 09:50:33 字數 2779 閱讀 6683

第一門課會以貓作為物件識別

第二門課中,學習超引數調整、正則化、診斷偏差和方差以及一些高階優化演算法,比如 momentum 和 adam 演算法。

第三門課中,我們將使用兩周時間來學習如何結構化你的機器學習工程。

第四門課程中,我們將會提到卷積神經網路(cnn(s)),它經常被用於影象領域,你將會在第四門課程中學到如何搭建這樣的模型。

在第五門課中,你將會學習到序列模型,以及如何將它們應用於自然語言處理,以

及其它問題

第一周:深度學習引言(introduction to deep learning)

1、relu 啟用函式

2、神經網路的一部分神奇之處在於,當你實現它之後,你要做的只是輸入 x,就能得到輸出 y。

3、影象應用, 我們經常在神經網路上使用卷積(

convolutional neural network

) , 通常縮寫為

cnn。 

放出來, 所以音訊是最自然的表現。 

作為一維時間序列(兩種英文說法

one-dimensional time

series / temporal sequence) .

對於序列資料, 經常使用

rnn, 一種遞迴神經網路(

recurrent

neural network

) , 語言, 英語和漢語字母表或單詞都是逐個出現的, 所以語言也是最自然

的序列資料。

4、卷積神經網路通常用於影象資料

5、將要討論的許多技術都將適用, 不論是對結構化資料還是非結構化資料。 為了解釋演算法, 我們將在使用非結構化資料的示例中多畫一點, 但正如你所想的, 你自己團隊裡通過運用神經網路, 我希望你能發現, 神經網路演算法對於結構化和非結構化資料都有用處。

6、只用了一行**。 所以, 我打算先構建乙個 1*m

的矩陣, 實際上它是乙個行向量, 同時我準備計算z1、z2...

, 所有值都是在同一時間內完成

7、z = np.dot(w.t,x) + b

8、numpy

廣播機制

9、在統計學裡面, 有乙個方法叫做最大似然估計, 即求出一組引數, 使這個式子取最大值,也就是說, 使得這個式子取最大值

第三週: 淺層神經網路

(shallow neural networks)

1、其中, x

表示輸入特徵,

ܽα表示每個神經元的輸出,

ܹw表示特徵的權重, 上標表示神經

網路的層數(隱藏層為

1) , 下標表示該層的第幾個神經元。 這是神經網路的符號慣例, 下

同。

2、用向量化的方法, 可以不需要顯示迴圈

4、在討論優化演算法時, 有一點要說明: 我基本已經不用

sigmoid

啟用函式了,

tanh

函式在所有場合都優於

sigmoid

函式。

5、sigmoid

啟用函式: 除了輸出層是乙個二分類問題基本不會用它。

tanh

啟用函式:

tanh

是非常優秀的, 幾乎適合所有場合。

relu

啟用函式: 最常用的預設函式, , 如果不確定用哪個啟用函式, 就使用

relu

或者leaky relu

。6、通常的建議是: 如果不確定哪乙個啟用函式效果更好, 可以把它們都試試, 然後在驗證集或者發展集上進行評價。 然後看哪一種表現的更好, 就去使用它。

7、在選擇自己神經網路的啟用函式時, 有一定的直觀感受, 在深度學習中的經常遇到乙個問題: 在編寫神經網路的時候, 會有很多選擇: 隱藏層單元的個數、 啟用函式的選擇、 初始化權值

……8、事實證明, 如果你使用線性啟用函式或者沒有使用乙個啟用函式,那麼無論你的神經網路有多少層一直在做的只是計算線性函式, 所以不如直接去掉全部隱藏層。 在我們的簡明案例中, 事實證明如果你在隱藏層用線性啟用函式, 在輸出層用

sigmoid

函式, 那麼這個模型的複雜度和沒有任何隱藏層的標準

logistic

回歸是一樣的

9、正向傳播、反向傳播

np.sum

是 python

的 numpy

命令,axis=1

表示水平相加求和

10、直觀理解反向傳播(

backpropagation intuition

)11、把 ܹw[1]設為np.random.randn(2,2)(生成高斯分布),通常再乘上乙個小的數,比如 0.01,這樣把它初始化為很小的隨機數。 然後b沒有這個對稱的問題(叫做 symmetry breaking problem) ,所以可以把b初始化為 0,因為只要隨機初始化w你就有不同的隱含單元計算不同的東西,因此不會有 symmetry breaking 問題了。相似的, 對於 ܹw[2]你可以隨機初化b[2]可以初始化為 0

吳恩達《深度學習》第一門課(3)淺層神經網路

1 神經網路每個單元相當於乙個邏輯回歸,神經網路由邏輯回歸的堆疊起來。下圖是網路結構 針對網路結構進行計算 1.第一層的正向傳播 2.第一層的反向傳播 3.第二層的反向傳播 正向只要把微分符號去掉即可 1 神經網路各層分別較輸入層 掩藏層和輸出層,其中說乙個網路有幾層時一般不包括輸入層,如下圖是乙個...

神經網路和深度學習(一) 初識神經網路

人類的視覺系統是世界上最棒的系統之一,比如下列一串手寫數字 大多數人都可以一眼看出它是504192。在我們大腦的每乙個半球,都有主要的視覺皮質v1 它包含了1.4億個神經元,在這些神經元之間有數百億的接觸。然而人類的視覺不僅僅包含了v1 而是一系列的視覺皮質v1 v2,v3,v 4,v5 逐步進行更...

神經網路和深度學習(一) 初識神經網路

人類的視覺系統是世界上最棒的系統之一,比如下列一串手寫數字 大多數人都可以一眼看出它是504192。在我們大腦的每乙個半球,都有主要的視覺皮質的輸入依賴於其輸出,這很難理解,所以我們不允許這樣的迴圈。然而,有些人造神經網路中存在反饋迴路是可能的。這樣的模型稱為遞迴神經網路。這些模型的思想是讓神經元在...