(1)無論線性回歸還是邏輯回歸當特徵量太多時,計算的負荷會非常大。如50x50畫素有2500特徵,如果兩兩組合將會有25002/2個(接近300萬個特徵)。普通的線性回歸和邏輯回歸模型不能有效處理這麼多特徵,這時候需要用神經網路了。
大腦的某一塊可以經過學習,學會其他功能,比如某一塊感受觸覺,但是接受視覺訓練之後,能夠感受視覺。
(1)神經元有樹突和軸突,許多樹突接受電訊號,乙個軸突傳送電訊號。
(2)根據神經元模型,建立邏輯回歸模型:
(3)多神經元、多層時,分別稱為輸入層,掩藏層,輸出層:
(1)向量表示比迴圈編碼更高效:
以上只是針對乙個訓練例項,如果是整個訓練集進行計算的話,需要將x進行轉置,使得同乙個例項在一列。
(2)神經網路比線性回歸和邏輯回歸更強大,在於前者將特徵不斷進行高階化。
(1)從本質上講,神經網路能夠通過學習得出其自身的一系列特徵。
(2)邏輯與運算
其中θ為[-30,20,20]t.
(3)邏輯或運算
其中θ為[-10,20,20]t。
(4)非運算
通過上一節的簡單運算構造出複雜運算(同為1或者同為0時取1)
按照這種方法我們可以逐步構造出越來越複雜的函式,也能得到更加厲害的特徵值。這就是神經網路厲害之處。
如要在乙個中識別路人,汽車,電單車,卡車四類,這是神經網路可以設定四個輸出,每乙個用1或0代表是否有某一類即可。
吳恩達《機器學習》課程總結(8)神經網路表述
1 無論線性回歸還是邏輯回歸當特徵量太多時,計算的負荷會非常大。如50x50畫素有2500特徵,如果兩兩組合將會有25002 2個 接近300萬個特徵 普通的線性回歸和邏輯回歸模型不能有效處理這麼多特徵,這時候需要用神經網路了。大腦的某一塊可以經過學習,學會其他功能,比如某一塊感受觸覺,但是接受視覺...
吳恩達《機器學習》課程總結 19 總結
線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...
吳恩達《機器學習》課程總結(19)總結
線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...