參考**
關於權重和偏置的合理解釋
這周開始考慮在基於mp實現一些特定應用的時候,其實我心中是有幾個雛形的,但是涉及到技術細節的時候,還是有些缺乏,所以就想找本書能提供些參考。巧合的是,發現了這本《神經網路與深度學習》,正好也是基於python的,有用武之地。
本章通過神經網路來識別手寫數字,在這一章中涉及到以下幾個重要物件:
感知器,對特定輸入向量輸入0或者1,等效於與非門。
s神經元,啟用函式為sigmoid函式的感知器。
為什麼選用sigmod函式?
在現階段看來,一是由於函式是平滑的,二是由於函式很好的收斂於0和1。
梯度下降法
mathjax語法支援測試 e=這是乙個很簡單的演算法,由於梯度方向是保證目標函式變小,被用來迭代尋找最優解。mc2,
δβα
由於每次迭代都要計算代價函式的變化,一種加速方法是隨即梯度下降法,通過小批量資料(mini-batch)進行訓練。
相關python**在**倉庫
主要用到了numpy的向量運算。
為什麼要解釋?
如果說現在拿到乙個問題,馬上就套用某某神經網路去訓練,然後可能運氣比較好,得到了正確率很高的結果,那麼我們又如何看待這樣的過程呢?其實神經網路也好,其他演算法也好,說到底還是要從問題出發,去理解問題,理解問題是怎麼在這個演算法中逐步求解的,這樣得到的結果才是可信的,這樣的演算法才是可持續的。所以對權重和偏置的解釋能夠幫助我們解答哪些問題適合通過感知器這樣的網路來解決,哪些不適合。
目前文中的解釋是帶一些猜想性質的解釋,例如把隱含層的神經元輸出解釋成組成數字的一部分影象。
神經網路與深度學習(一)
最近學習了andrew ng在網易雲開放的深度學習與神經網路課程,受益匪淺,特來做乙個初學者的總結。其實在學習神經網路之前,掌握基本的機器學習知識很重要,要不學起來還是比較吃力,從監督學習的梯度下降演算法 對後面的學習應用很廣泛 到極大似然估計,從啟用函式的種類與選擇,到損失函式的確定,以及正則化,...
機器學習,深度學習,神經網路,深度神經網路
先來說一下這幾者之間的關係 人工智慧包含機器學習,機器學習包含深度學習 是其中比較重要的分支 深度學習源自於人工神經網路的研究,但是並不完全等於傳統神經網路。所以深度學習可以說是在傳統神經網路基礎上的公升級。神經網路一般有輸入層 隱藏層 輸出層,一般來說隱藏層大於2的神經網路就叫做深度神經網路,深度...
神經網路和深度學習(一) 初識神經網路
人類的視覺系統是世界上最棒的系統之一,比如下列一串手寫數字 大多數人都可以一眼看出它是504192。在我們大腦的每乙個半球,都有主要的視覺皮質v1 它包含了1.4億個神經元,在這些神經元之間有數百億的接觸。然而人類的視覺不僅僅包含了v1 而是一系列的視覺皮質v1 v2,v3,v 4,v5 逐步進行更...