主要講了五門課的內容:
第一門課:神經網路基礎,構建網路等;
第二門課:神經網路的訓練技巧;
(1)常說的深度學習指的就是訓練神經網路,或者也指特別大規模的神經網路。
(2)每乙個神經元都代表著從輸入到輸出的函式對映,如下的房價**:
(3)啟用函式relu(rectified linear unit)其實就是max(0,x)。
(4)神經網路非常擅長計算從x到y的精確對映函式(個人理解:神經網路實質就是非線性的多項式擬合),神經網路的輸入單元個數一般是特徵個數,中間稱為隱藏層,然後輸出單元個數依據實際情況而定,如下輸出是房價的**值,故是乙個神經元。
(1)神經網路在監督學習上的應用:
(2)資料報括結構化資料和非結構化資料,影象語言語音都是非結構化資料,是神經網路要研究解決的重點。
(2)演算法創新的乙個小案例:啟用函式從sigmoid(存在梯度消失)變成relu,訓練的速度變得更快了。
(3)在實踐應該按照下圖方式進行快速迭代:
總共四周,分別是前言,預備知識,淺層神經網路和深層神經網路。
吳恩達《深度學習》第一門課(3)淺層神經網路
1 神經網路每個單元相當於乙個邏輯回歸,神經網路由邏輯回歸的堆疊起來。下圖是網路結構 針對網路結構進行計算 1.第一層的正向傳播 2.第一層的反向傳播 3.第二層的反向傳播 正向只要把微分符號去掉即可 1 神經網路各層分別較輸入層 掩藏層和輸出層,其中說乙個網路有幾層時一般不包括輸入層,如下圖是乙個...
深度學習 吳恩達
第三週神經網路 啟用函式 第一門課 感謝黃博的參考筆記 一次梯度下降 正向傳播與反向傳播 一次反向傳播梯度下降 注意與機器學習課程不同的一點是,第一層不算樣本輸入 a t an z a tan z a tan z 的值域是位於 1和 1之間。a t anh z e z e zez e za tanh...
吳恩達深度學習日記1
今天的內容主要是聽了logistic回歸的部分 1 logistic回歸其實就是乙個 y sigmoid wx b 的乙個式子,其實可以直接理解為乙個一元一次函式,但是考慮到這個模型的用處在於做乙個二分類,所以直接使用 y wx b 不一定可以滿足要求,而加上sigmoid函式之後就可以將結果值y固...