課件資料:
深度學習最近興起的原因
深度學習與傳統機器學習模型的優劣
促使深度學習發展的三要素:資料規模;計算能力;演算法改進
結構化資料與非結構化資料
邏輯回歸的代價函式
logistic回歸的概念,公式表示
logistic回歸可用於二分類
課程中用到的關於訓練集,測試集的一些符號表示
logistic回歸的「損失函式」與「代價函式」的概念,以及理論上的損失函式,以及實際中logistic回歸所使用的損失函式
實際中使用的lr的損失函式的使用原因:因為它是「凸函式」
對lr的實際損失函式,使用梯度下降的公式原理
邏輯回歸在針對單個樣本時的反向梯度計算;核心計算dw1,dw2,db
向量化:減少顯示的for迴圈,提高向量的預算速度
np.dot();np.exp(v);np.log(v);v**2;1/v
通過numpy的內建函式,來避免使用for迴圈
應用向量化於lr
lr的向量化:
import math
def sigmoid(x):
return 1.0/(1+math.e**(-x))
z = np.dot(w.t,x) + b
a = sigmoid(z)
或者:import numpy as np
def sigmoid(x):
return 1.0/(1+np.exp(-x))
吳恩達神經網路和深度學習
課程名稱 神經網路和深度學習 andrew ng 神經網路和深度學習 1 什麼是神經網路 傳送門 神經網路和深度學習 2 啟用函式 傳送門 神經網路和深度學習 3 神經網路輸入的表示 傳送門 神經網路和深度學習 4 符號約定 傳送門 神經網路和深度學習 5 邏輯回歸 傳送門 神經網路和深度學習 6 ...
吳恩達 深度學習 神經網路和深度學習
二分類問題是一種簡單分類問題,其輸出結果是兩個離散值。假如給定一副貓的,那麼二分類問題就可描述為 判別這幅影象中是否有貓?分類結果也只有1 表示存在 0 表示不存在 兩種。符號定義 x 表示乙個nx維資料,為輸入資料,維度為 nx,1 y 表示輸出結果,取值為 0,1 x i y i 表示第i組資料...
神經網路和深度學習 吳恩達 神經網路基礎
簡單的理解就是輸出的結果是兩個離散的值,就像課程中舉的例子 通過輸入一張的資訊,經過一些列的計算,輸出乙個離散的y值,中是否有貓,當y 1時表示中有貓,反之當y 0時,表示中沒有貓。我看很多人將這個翻譯成邏輯回歸,而在 機器學習 中,作者認為應該更為準確的叫對數機率回歸,這裡我就不對這兩個翻譯做過多...