1,l1會趨向於產生少量的特徵,而其他不重要的特徵都為0,會產生稀疏性,可以用來選擇特徵,也能一定程度上防止過擬合。而l_2會選擇更多的特徵,特徵值都趨近於0,防止過擬合。
lasso在選擇特徵時非常有用,而ridge就只是規則化而已。所以在所有特徵中只有少數特徵起重要作用的情況下,選擇lasso進行特徵選擇。而所有特徵中大部分特徵都能起作用,而且作用很平均,那麼使用ridge會更合適。
2,為什麼l1能產生稀疏性和一定程度上防止過擬合?(看參考鏈結的圖)
正則化引數要做的就是控制兩個目標之間的平衡關係:在最小化訓練誤差的同時正則化引數使模型簡單。
1.最小化誤差是為了更好的擬合訓練資料。
2.正則化引數是為了防止模型過分擬合訓練資料。
所以正則化引數要保證模型簡單的基礎上使模型具有很好的泛化效能。
L1 L2正則化的區別
簡單讀了一些文章,總結一下l1和l2正則化的區別吧,似乎是非常容易被問到的乙個問題。機器學習中,損失函式後面一般會加上乙個額外項,常用的是l1 norm和l2 norm,即l1範數和l2範數。可以看作是損失函式的懲罰項。正則化項一般是模型複雜度的單調遞增函式,模型越複雜,正則化值就越大。上面的目標函...
L1 L2損失 和 L1 L2正則化
1 l1損失 最小絕對值誤差 最小化 值 真實值 的絕對值,魯棒性強。2 l2損失 最小平方誤差 最小化 值 真實值 的平方,對於大於1的數,平方更大,因此對樣本敏感。3 l1正則化 l1正則化和l2正則化可以看做是損失函式的懲罰項,l1正則化是指權值向量中各個元素的絕對值之和。l1正則化可以產生稀...
L1 L2正則化介紹
1 正則化 regularization 對引數w的影響 說明 loss 代表原始的代價函式,後面那一項就是l2正則化項,它是這樣來的 所有引數w的平方的和,除以訓練集的樣本大小n。就是正則項係數,權衡正則項.在這裡並沒有除以樣本數量和2,是因為使用了絕對值誤差。一般情況下,los s y y 2 ...