對梯度下降法和反向傳播BP的一點理解

2021-08-28 14:57:04 字數 2511 閱讀 6910

最近在學習深度學習中的梯度下降與反向傳播方面的知識。偶有心得,特此記錄。若有不足之處,煩請指正賜教。

在訓練階段,深度神經網路經過前向傳播之後,得到的**值與先前給出真實值之間存在差距。我們可以使用損失函式來體現這種差距。損失函式的作用可以理解為:當前向傳播得到的**值與真實值接近時,取較小值。反之取值增大。並且,損失函式應是以引數(w, b)為自變數的函式。

這裡就需要理解,所謂的對於神經網路的訓練指的是什麼。它是指通過輸入大量訓練資料,使得神經網路中的各引數調整「學習」到乙個合適的值。那麼我們在測試時,測試資料就可以直接與這些引數進行運算,準確地得到我們想要的輸出。

因此,重點在於,怎樣通過大量的訓練資料,使得引數自動調整到合適值。

普遍使用的是梯度下降法。它基於這樣的一種認識:通過某一群引數的運算後,若得到的**值與真實值的差距(即損失函式取值)較小,則可以認為這一群引數是「較為令人滿意的」。

於是明顯的,能夠使損失函式取其最小值的引數必然是我們想要的引數。

由淺入深,我們最容易想到的實現上述目的的方法是窮舉。即取遍引數的所有可能取值,比較在不同取值情況下得到的損失函式的值,即可得到使損失函式取值最小時的引數值。然而這種方法顯然是不可取的。因為在深度神經網路中,引數的數量是乙個可怕的數字,動輒上萬,十幾萬。並且,其取值有時是十分靈活的,甚至精確到小數點後若干位。若使用窮舉法,將會造成乙個幾乎不可能實現的計算量。

第二個想到的方法就是微分。通過將損失函式進行全微分,取微分為零或較小的點,即可得到理想引數。(補充:損失函式取下凸函式,才能使得此方法可行。現實中選取的各種損失函式大多也正是如此。

)可面對神經網路中龐大的引數總量,純數學方法幾乎是不可能直接得到微分零點的。

因此我們使用了梯度下降法。既然無法直接獲得該點,那麼我們就想要一步一步逼近該點。乙個常見的形象理解是,爬山時一步一步朝著坡度最陡的山坡往下,即可到達山谷最底部。(至於為何不能閃現到谷底,原因是引數數量龐大,表示式複雜,無法直接計算)我們都知道,向量場的梯度指向的方向是其函式值上公升最快的方向,也即其反方向是下降最快的方向。計算梯度的方式就是求偏導。

這裡需要引入乙個步長的概念。個人理解是:此梯度對引數當前一輪學習的影響程度。步長越大,此梯度影響越大。若以平面直角座標系中的

梯度這個概念對於理解神經網路中引數具體是怎樣更新的有很大幫助。

同樣,由簡到繁。我們首先想到的使用梯度下降法的具體做法是:損失函式對每乙個引數自變數求偏導。然後每個偏導數乘以預先設定的步長,以此為本次學習的引數調整量。原引數減去引數調整量,則引數可以得到修正。修正之後,本輪學習結束。可再進行前向傳播。(注:學習不止一輪)

做法大體上確實如此(針對於批量梯度下降法)。我之前在理解梯度下降法時一直有乙個錯誤的認識,即「損失函式是以**值為自變數的函式」(其實是以引數為自變數)。這個誤解使我在面對梯度一詞時顯得格外迷茫。因為求偏導數必定與自變數有關,而我一直誤將引數調整侷限於輸出層。其實是對網路中所有引數求梯度。

具體的實現方法,使用的是反向傳播

這部分推薦兩篇博文:深度學習筆記三:反向傳播(backpropagation)演算法

這一篇對於理解具體計算過程極有幫助:

前向傳播演算法(forward propagation)與反向傳播演算法(back propagation)

反向傳播有核心的四條公式。我在此談談自己的一點理解。我認為前兩條公式就像是多公尺諾骨牌一樣(求導的鏈式法則)。第一條公式求出輸出層每個神經元的誤差(推倒第一枚多公尺諾骨牌),第二條公式闡述了後面一層網路神經元的誤差與前一層神經元的誤差的聯絡(前一枚倒下可推導出下一枚也倒下)。而第三四條公式,只是說明怎樣以神經元誤差得到兩個引數(w, b)的梯度

注:上述「誤差」與「梯度」個人感覺並無太大差別。因為梯度乘以步長就是誤差。之所以分別用兩個詞(誤差用於神經元,梯度用於引數),是為了使讀者有意識地去區別神經元與引數。

引數是我們需要得到的,需要訓練調整的,結合梯度下降法這一名詞,在第三第四條公式中我使用了「梯度」去描述它。而隱藏層神經元(輸入輸出層神經元例外)的取值是乙個中間值,它由引數所確定,並不是我們的最終目標產物。同樣的,核心公式出現的δ符號指的都是神經元取值上的誤差。理解了這一點,看公式時思路就順暢很多。

理解神經元取值與引數是兩個概念後,我們再來看看四條公式。

至於何謂本層,應該是引數與經由其產生的神經元視為一層吧。(不確定)

公式中有些細節,即啟用函式。在深度神經網路中,在經過引數運算生成心的一層神經網路後,還要使用啟用函式進行運算。而啟用函式在反向傳播中也是很重要的一部分。留心何謂啟用函式,能使你更好地理解反向傳播的公式。

反向傳播以及梯度下降法

反向傳播 從後向前,逐層求損失函式對每層神經元引數的偏導數,迭代更新所有引數。我們訓練網路的目的就是不斷優化引數,尋找最小的損失函式,我們通過梯度下降函式來實現這個目標 乙個函式沿梯度方向下降最快 初始化引數w為5,學習率為0.2,則 1次 引數w 5 5 0.2 2 5 2 2.6 2次 引數w ...

深度學習 梯度下降和反向傳播

引用知乎上的乙個回答 那麼導數的本質是什麼?就是變化率唄,例如小王今年賣了100頭豬,去年90頭,前年80頭,也就是說每年增加10頭,這就是變化率,完整點就是說10頭 年,是有單位的,也就是說導數為10,說白點就是自變數單位變化量的基礎上因變數的變化量,自變數就是年份,單位為年,因變數為豬的數量,年...

AI入門 反向傳播和梯度下降

上一節中提到,分類函式是神經網路正向傳播的最後一層。但是如果要進行訓練,我們只有 結果是不夠的,我們需要拿 結果跟真實值進行對比,根據對比結果判斷我們的神經網路是不是夠好。也就是說我們需要在分類函式後面增加一層 計算損失值。計算損失值這一層才是神經網路真正的最後一層。有了損失值之後,我們反過來優化每...