如何才能直觀解釋正則化減少過擬合的原理?
以下圖為例。high bias(高偏差)就是欠擬合,high variance(高方差)就是過擬合。
為了將過擬合的模型變為正好(just right),從圖中直觀上來看,只需要減小高次項的權重。
這就是降低過擬合的直觀理解。從數學上,我們用正則化
來降低模型的過擬合程度。
簡單來說,所謂正則化,就是在原cost fucntion上新增正則化項
(如下圖)。
正則化項
能減少模型的非線性程度,從而降低模型的過擬合。從圖中來看,正則化項
能將過擬合的模型(藍色)變為just right的模型(粉紅色)。
分情況討論
直觀的理解,如果我們的正則化係數(lambda)無窮大,則權重w就會趨近於0。權重變小,非線性程度自然就降低了。
直觀的理解,如果我們的正則化係數(lambda)無窮大,則權重w就會趨近於0。權重變小,啟用函式輸出z變小。z變小,就到了啟用函式的線性區域
,從而降低了模型的非線性化程度。
為什麼正則化可以防止過擬合?
為什麼正則化有利於預防過擬合呢?為什麼它可以減少方差問題?我們通過兩個例子來直觀體會一下。左圖是高偏差,右圖是高方差,中間是just right,這幾張圖我們在前面課程中看到過。直觀上理解就是如果正則化引數設定得足夠大,權重矩陣被設定為接近於0的值,直觀理解就是把多隱藏單元的權重設為0,於是基本上消...
為什麼正則化可以防止過擬合?
加上正則化項之後的損失函式 j w l b l 1m i 1 ml y y 2m l 1 l w l f2j w b frac sum ml y y frac sum l w 2 f j w l b l m 1 i 1 m l y y 2m l 1 l w l f2 f表示frobenius範數 縮...
什麼是欠擬合現象 過擬合 欠擬合與正則化
在機器學習模型的訓練過程中,經常會發生過擬合 overfitting 欠擬合 underfitting 的現象。那這二者究竟為何物呢?過擬合,通俗點說,就是我們的模型對資料模擬的太好了,訓練集中的資料幾乎都被完美 有人就說了,我 的完美也有錯嗎?是的,你有錯。因為我們的目標並不是看你訓練集中的資料 ...