新手上路很多概念不清楚,本文作為記錄和筆記,簡單摘抄,列出關鍵概念,以便查閱,詳細內容移步原文
參考:如何自己從零實現乙個神經網路? - 量子位的回答 - 知乎神經元:神經網路基本單元,獲得輸入,計算,產生輸出
- 權重:wx
- 偏置:b
- 啟用函式:使用的sigmoid,作用對無限制的輸入轉換為可**形式輸出,從而具有某種意義(比如概率)
神經網路
- 前饋:神經元的輸入向前傳遞獲得輸出的過程
訓練神經網路:設定乙個損失函式,想辦法把損失函式最小化
減少神經網路損失:因為改變網路的權重w和偏置b可以影響**值,損失函式實際上就是包含多個權重、偏置的多元函式
\[l\left(w_, w_, w_, w_, w_, w_, b_, b_, b_\right)
\]故要研究某乙個自變數對於函式的影響,可以求某乙個自變數的偏導(比如文章中是w1),過程中會使用到鏈式法則,因為是向後計算(往前饋forward的反方向,即從輸出往輸入的方向),故稱向後計算偏導數的系統為返鄉傳播(backpropogation)
隨機梯度下降sgd
\[w_ \leftarrow w_-\eta \frac}
\]定義了改變權重和偏置的方法,\(\eta\)是乙個常數,稱為學習率(learning rate),它決定了我們訓練網路速率的快慢。將w1減去η·∂l/∂w1,就等到了新的權重w1。\(\eta\)的大小自己把握
當∂l/∂w1是正數時,w1會變小;當∂l/∂w1是負數 時,w1會變大。
如果我們用這種方法去逐步改變網路的權重w和偏置b,損失函式會緩慢地降低,從而改進我們的神經網路
神經網路簡介 多層神經網路
如上圖所示,該神經網路有三層。我們標記第一層 也就是輸入層 為a 1 第一層與第二層連線權重為w 1 然後第一層輸入與第一層權重的線性和為z 1 第一層神經元個數為n 1 並依次標記剩餘網路層。可以看出,存在 z l j i 1 n l a l i w l i,j a l w l j a l 1 f...
神經網路簡介
簡單介紹一下什麼是神經網路,以及其原理 這個感知器有3個input和乙個output,分別是x1 x2,x3,有乙個output。乙個感知器可以擁有多個input,如x1 x2,input和output的值都有乙個特點,就是只能是1或者0,也就是說x1 x2,只能取0或者1,而output也只能取0...
神經網路簡介
在過去的十年中,效能最佳的人工智慧系統 例如智慧型手機上的語音識別器或google最新的自動翻譯器 源自 深度學習 技術。實際上,深度學習是一種稱為神經網路的人工智慧方法的新名稱,這種方法已經流行了70多年。神經網路由沃倫 麥卡洛 warren mccullough 和沃爾特 皮茨 walter p...