lecture 14: regularization 規則化
14-1 規則化假說集
regularization:the magic
從多次的hypothesis set走回到低次的hypothesis set,避免了overfit的發生。
ill-posed problems:指有很多的函式都滿足solution,所以要限制一下,不然會出現問題。
高次的hypothesis和低次的區別只是高次項係數為0,這也就是為什麼在圖中,h2包括在h10中。
那麼當把高次8個係數設為0修改為任意8個係數設為0時:
那麼h2'可以視作h2和h10的中間選項,比h2要更靈活,比h10要更少冒險。
但有乙個bad news:找到乙個好的sparse h2',是乙個np-hard問題。
對h2'的進一步改寫,算w^2求和小於乙個定值的時候,對應的hypothesis為:
那麼h(c)和h2'是有overlap的,但不是完全相同。
顯而易見地,隨著c的增大,有如下包含關係:
可以畫圖表示為:
現在在點w上,要朝著負梯度的方向滾下去,一路很順利的話到點wlin,即linear regression的solution。
而限制條件,是w要在半徑是根號c的圓裡面,所以大部分情況下,w在圓的邊際,那麼這時要判斷w是否是最佳解。
判斷依據:在符合條件的情況下,是否還能從山坡上往下滾。(不能出限制的圓)
所以要向垂直於圓的法向量normal的地方走,即綠色箭頭的方向。
那也就是說,如果現在是最好的解wreg上時,有:
此時:
解方程式後得到:
如果知道numda,問題會變得簡單很多。
numda大的時候會underfit,太小會overfit。
只需要一點點的numda:a little regularization goes a long way。
numda越大,則w越短越好,c較小比較好,所以這種regularization叫做weight decay regularization,傾向於把係數變小。
14-3 規則化和vc維理論
這節基本沒聽懂。。不寫了
14-4 general regularizers
規則化的選擇方式: target-dependent, plausible or friendly
區分一下l2 regularizer和l1 regularizer的區別
noise越高,regularization能發揮越好的效果。
第十四講 模組
1.模組 模組化指將乙個完整的程式分解成乙個個的小模組 通過將模組組合,來搭建出乙個完整的程式 模組化的優點 方便開發 方便維護 模組可以復用 模組的建立 在python當中乙個py檔案就是乙個模組 在乙個模組中引入外部模組 import模組名 模組名就是py檔案 可以引入同乙個模組多次,但是模組的...
第十四講 深度增強學習 課時33
看了好幾遍也沒看懂dqn neural network模擬q value function可以只將state作為輸入,輸出為各個q state,action 的值。平行計算各個動作,高效。流程實在看不懂。policy gradient的更新過程跳過,李巨集毅那篇有講 最簡單的base line就是將...
第十四章 機器學習庫
1.機器學習的一般流程與numpy安裝 numpy庫 用於高效能科學計算和資料分析,是常用的高階資料分析庫的基礎包。pip3 install numpy 解決no module named numpy 第一種方式在venv裡面將numpy安裝一遍。第二種方式使用系統的python程式,獲取pytho...