當特徵數量大時,在進行邏輯回歸和線性回歸時要包含所有的相關項,二項式的個數以n^2的量級增長,最終的結果可能過擬合,同時計算量也過大。
####model representation
x
0x_0
x0為偏置單位,總是等於1,x是輸入,hθ(
x)h_\theta(x)
hθ(x)
是輸出,θ
\theta
θ是權重即函式的引數,hθ(
x)h_\theta(x)
hθ(x)
和邏輯回歸中的邏輯函式相同,在神經元中被稱為激勵函式
第一層是輸入層,第二層是隱藏層,第三層是輸出層,每條邊上有乙個權重θ
表示第j層的第i個激勵,所謂的激勵是指由乙個具體神經元讀入、計算並輸出的值
θ
j\theta^j
θj第j層到第j+1層單元的權值矩陣
θ
j\theta^j
θj的維數是sj+
1×(s
j+1)
s_\times(s_j+1)
sj+1×
(sj
+1),s
js_j
sj表示第j層的單元數
將上述的公式向量化
examples and intuitions
構造實現與功能的神經網路
構造實現或功能的神經網路
構造實現異或功能的神經網路
為了將資料分類為多個類,我們讓我們的假設函式返回乙個值向量。假設我們想把我們的資料劃分為四類之一。我們將使用下面的例子來了解這種分類是如何完成的。這個演算法將輸入乙個影象並相應地進行分類
吳恩達機器學習之神經網路概述
一 非線性假設 線性回歸與邏輯回歸,都是線性假設,對於一些問題,如果用線性假設模擬,引數將會非常多,計算量巨大,而用非線性假設模擬,引數數量可能要少的多。此外,所有的線性假設,如感知機,都不能解決異或 xor,不同即為真 與同或 xnor,相同即為真 問題,即非線性邊界。神經網路,既可以做線性假設,...
吳恩達機器學習筆記 9 神經網路學習
本章講述了神經網路的起源與神經元模型,並且描述了前饋型神經網路的構造。在傳統的線性回歸或者邏輯回歸中,如果特徵很多,想要手動組合很多有效的特徵是不現實的 而且處理這麼大的特徵資料量,計算上也很複雜。神經網路最開始起源於生物資訊中的大腦,在上世紀80 90年代的時候很火,後來就沒什麼訊息了。在神經網路...
《吳恩達機器學習》學習筆記004 神經網路
假使我們採用的都是50x50畫素的小,並且我們將所有的畫素視為特徵,則會有 2500個特徵,如果我們要進一步將兩兩特徵組合構成乙個多項式模型,則會有約 2 個 接近3百萬個 特徵。普通的邏輯回歸模型,不能有效地處理這麼多的特徵,這時候我們需要神經網路。當資料的特徵太多,比如影象識別,一般就不能使用邏...