機器學習是人工智慧的乙個分支,它業是一類演算法的總稱。這些演算法能夠根據提供的訓練資料按照一定的方式來學習,最終用於**或者分類。更具體的說,機器學習可以看作是尋找乙個函式,輸入是樣本資料,輸出是期望的結果,只是這個函式過於複雜,以至於不太方便形式化表達。需要注意的是,機器學習的目標是使學到的函式很好地適用於「新樣本」,而不僅僅是在訓練樣本上表現很好。學到的函式適用於新樣本的能力,稱為泛化能力。
鄒博老師將機器學習的流程比作西紅柿炒雞蛋
•監督學習:根據已有的資料集(可以叫做訓練資料既有特徵又有標籤),通過訓練,讓機器可以自己找到特徵和標籤之間的聯絡,在面對只有特徵沒有標籤的資料時,可以判斷出標籤。
監督學習舉例
回歸:對已經存在的點(訓練資料)進行分析,擬合出適當的函式模型y=f(x),這裡y就是資料的標籤,而對於乙個新的自變數x,通過這個函式模型得到標籤y。 例如利用過去的房價來**當前和未來的**。
分類:針對離散型的,輸出資料屬於哪個類別
•無監督學習: 我們不知道資料集中資料、特徵之間的關係,而是要根據聚類或一定的模型得到資料之間的關係。比起監督學習,無監督學習更像是自學,讓機器學會自己做事情
如下圖所示,在無監督學習中,我們只是給定了一組資料,我們的目標是發現這組資料中的特殊結構。例如我們使用無監督學習演算法會將這組資料分成兩個不同的簇,這樣的演算法就叫聚類演算法。
•強化學習: 通過不斷與環境互動,利用環境給出的獎懲來不斷的改進策略(即在什麼狀態下採取什麼動作),以求獲得最大的累積獎懲。
簡言之:通過不斷激勵與懲罰,達到最終目的。
舉個例子:對於乙個正在學走路的小屁孩,他一不小心摔倒了,如果他一摔倒就哭,那媽媽就會打他小屁屁,如果他摔倒了會自己爬起來,那媽媽很高興,就獎勵他喝一口奶。這樣小屁孩就學會了摔倒了要自己爬起來,然後就可以喝很多很多奶。
在上述問題中,獎就是喝奶,懲就是打屁屁,在摔倒狀態下,是選擇哭還是爬起來,不同的動作會有不同的獎懲;初始的策略是哭和爬起來都有可能。但根據獎懲,小屁孩學到了摔倒之後爬起來是乙個更好的策略,因此之後都會選擇這個策略,這樣就可以最大化累積獎懲—喝很多很多奶。
強化學習與極度學習的區別:
(1)監督學習有反饋,無監督學習無反饋,強化學習是執行多步之後才反饋。
(2)強化學習的目標與監督學習的目標不一樣,即強化學習看重的是行為序列下的長期收益,而監督學習往往關注的是和標籤或已知輸出的誤差。
(3)強化學習的獎懲概念是沒有正確或錯誤之分的,而監督學習標籤就是正確的,並且強化學習是乙個學習+決策的過程,有和環境互動的能力(互動的結果以懲罰的形式返回),而監督學習不具備。
01 機器學習簡介
1.課程介紹 人工智慧 機器學習 神經網路 深度學習 2.機器學習 machine learning,ml 2.1 概念 多領域交叉學科,涉及概率論 統計學 逼近論 凸分析 演算法複雜度理論等多門學科。專門研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改...
機器學習筆記 01
本csdn部落格學習筆記對應為機器學習西瓜書教材,一切內容以西瓜書教材為準 新學期的學習依舊,這次發表在csdn部落格上的是西瓜書版機器學習教材的學習心得和筆記的主要內容,可能不是很詳盡,但保證是本人理解與提煉的結果。1.1引言 機器學習 通過計算的手段,利用經驗改善系統的效能 一般流程 資料 學習...
機器學習01 初識機器學習
4.基本步驟 5.基本術語 6.參考 機器學習 machine learning 是一門人工智慧的學科,它模擬人類的學習行為,從已有的資料中習得經驗,再利用這些經驗對未知的資料進行 或判斷,以此來改善計算機演算法的效能。與傳統程式設計和演算法相比 傳統程式設計由程式設計師給演算法指定規則,機器學習由...