1.黃海廣教授的完整筆記在pdf的p123~p129
2.正則化線性回歸的目標,就是取到j(θ
\theta
θ)的最小值
3.正則化代價函式的梯度下降演算法:
上面的θ
\theta
θj的更新也可以寫成這樣子:
θj的係數往往是個接近於1但是小於1的數(α
\alpha
α很小但是m很大),所以每次θ
\theta
θj的更新都相當於先把自己壓縮一點,然後正常更新
4、對於x來說,上標表明該元素屬於第幾個案例,下標表示該元素屬於第幾個特徵
5、normal equation法求正則化代價函式梯度下降演算法的全域性最小值:
這一節是完全用電腦來記筆記的,感覺還是沒有前幾節用筆來記筆記那樣印象深刻一點…嗚嗚嗚。
吳恩達老師課程機器學習筆記
無監督學習 線性回歸 代價函式j 主要演算法 1.監督學習 supervised learning 2.無監督學習 unsupervised learning 其他演算法 1.強化學習 reinforcement learning 2.推薦演算法 recommender systems right ...
吳恩達老師課程總結
吳恩達老師課程總結1 深度學習概論 目錄 1.1神經網路的概念 1.2用神經網路進行監督學習 1.3深度學習的興起 1.1神經網路的概念 隨著ai日益博取眼球,方興未艾,神經網路再度火熱,談及神經網路,首先我們要解決乙個問題,什麼是神經網路?在我看來,神經網路是一種強大的學習演算法,這種演算法受到人...
吳恩達老師機器學習課程chapter07 聚類
本文是非計算機專業新手的自學筆記,高手勿噴。本文僅作速查備忘之用,對應吳恩達 andrewng 老師的機器學期課程第十三章。缺少重要推演,只能作為入門了解。目錄這是一種無監督學習,即是說樣本不含有標籤 y 只有x。k均值法的思路如下 如果想將已有的樣本分為兩類,首先,在空間中任意生成兩個點,作為聚類...