##2.基本問題
特點:##3.學習的物件演算法以資料和特徵為基礎,是資料驅動的科學;
目標是對資料進行**與分析;
機器學習已模型方法為中心,並利用統計學習的方法構建模型;
機器學習是以概率論,統計學,資訊理論,計算理論,最優化交叉學科,因此要想在機器學習上有所成績,必須數學過硬
特徵工程
特徵是最後需要輸入到模型中進行訓練的多維資料向量,技巧和方法很多,詳看下一節中。
##4.要素
章老師劃分為4個要素:模型,策略,演算法,特徵(李航老師劃為3個要素,少了乙個『特徵』)
機器學習界流行的一句話:資料和特徵決定了機器學習演算法的上界,而模型和演算法只是逼近這個上界而已。也充分說明,你的演算法效果如何,取決於特徵。
換句話說,資料和特徵確定好了之後,演算法能做到什麼樣子也就確定了。此時好與壞的演算法差別可能在於誰更接近基於這個資料和特徵的效果上限
##5.建模過程
###經驗風險
求解模型函式的過程使用的是經驗風險最小化,實際上再真正的常見演算法的實現過程中使用的是另外一種原則,結構風險最小化。
求解出來的損失函式的對應的θ對應的就是經驗風險最小化。該策略認為經驗風險最小的模型就是最優的模型。極大似然估計就是乙個典型的例子。
當模型是條件概率分布,損失函式是對數損失函式的時候,經驗風險最小化與極大似然估計等價。
在樣本數量足夠大的情況下,經驗風險最小化求解出來的模型能夠取得不錯的**效果
###結構風險
與經驗風險對應的就是結構風險最小化,是為了防止過擬合而提出的策略,等價於正則化
結構風險最小化 = 經驗風險最小化 + 正則項
katex parse error: expected 'eof', got '\lambdaj' at position 47: …l(y_i,f(x_i) + \̲l̲a̲m̲b̲d̲a̲j̲(f)
其中j (f
)j(f)
j(f)
是模型的複雜度,正則項就是懲罰複雜的模型,值隨著模型的複雜度的增大而增大,這樣才能起到抑制的作用。
結構風險小的模型,往往對訓練資料以及未知的測試資料都有較好的效果。
機器學習的第一課
期中考完又是乙個新的開始,這學期除了acm還想花一些時間在其他方面,本來想做一些nlp的專案的,但看了一點發現根本看不下去,好多需要有機器學習的基礎。再加上我想往ai方向讀研。所以到b站上找了吳恩達老師的公開課,打算每週花上幾個小時自學,順便補補數理基礎。說來也慚愧,線代概統已經不記得多少了,ai又...
機器學習第一課
過擬合就是,通過訓練集進行訓練的時候,模型學習了太多的背景雜訊,讓模型的複雜度高於了真實模型 比如看到齒距型的葉子,就覺得不是葉子 欠擬合是指,模型在訓練集上進行學習的時候,效果就不是很好,沒有充分學習到其中的資訊量,複雜度低於真實模型,得到的模型泛化能力差 比如看到綠色,就覺得是葉子 模型評估指標...
機器學習 part1 機器學習第一課
學習筆記,僅供參考,有錯必糾 從今天重新學習機器學習這門課程,鼓掌!好了,我要開始膜拜阿z老師了!機器學習第一課 讓計算機像人一樣地學習,或讓模型演算法更聰明更智慧型。機器學習要學習的內容非常多,比如微積分 線性代數 概率論與數理統計 統計學等數學基礎 監督學習 無監督學習 整合學習 深度學習等常用...