1.理解什麼是整合學習:所謂「整合」,是指同時構建多個學習器,這裡的學習器主要針對弱學習器。
2.弱學習器主要是指泛化能力略優於隨機猜測的學習器,弱的相結合會得到更好的泛化能力。三個臭皮匠嘛!
3那麼這些弱的摻雜起來為什麼會得到好的呢?主要思想就是投票法。所以呀我們要得到好的整合效果,必須要求個體學習器要有一定準確性,而且要有差異。如果不理解可看172頁圖8.2
4.現在大致講一下adaboosting演算法。大致流程
算出該個體分類器的錯誤率。
根據錯誤率算出該個體分類器的權值,西瓜書175頁(1.adaboosting演算法其實是不同個體分類器的乙個加權線性組合 2.分類器的權值與錯誤率有關,錯誤率的低個體分類器將會賦予高的權值) 迭代
5.證明的大致過程
adaboosting的大部分證明都是圍繞損失函式最小展開的。
首先證明了在整合學習這個問題中 指數損失 函式是 0/1損失函式 的一致替代函式。
目的:在接下來的推導過程中就可以使用這個函式
推導基分類器權重計算公式(由錯誤率計算)
推導樣本分佈即樣本權重的過程,.......說實話並沒有看懂。
6.啟示
損失函式在svm中是規範項,但是也可以用在目標函式裡,比如分類問題目標函式為分類錯誤最小。
分類函式就是乙個自變數為正,分類正確,因變數為0;而自變數為負,因變數有一定數值的函式。
7.問題
為什麼會有無法接受帶權樣本?無法重賦權以改變分布只能重取樣來處理,兩者做法能一樣麼?
為什麼svm目標函式不是損失最小?svm以線性可分出發,是分析問題的角度不一樣麼?
為什麼當基學習器錯誤率不滿足條件拋棄後,學習過程會停止?繼續也挺好呀
機器學習 整合學習
一。概括 整合學習 ensemble learning 本身不是乙個單獨的機器學習演算法,而是通過構建並結合多個機器學習器來完成學習任務。可以用於分類問題整合 回歸問題整合 特徵選取整合 異常點檢測整合等等,可以說所有的機器學習領域都可以看到整合學習的身影。整合學習思想 對於訓練集資料,通過訓練若干...
機器學習 整合學習
1.1 整合學習概述 整合學習在機器學習演算法中具有較高的准去率,不足之處就是模型的訓練過程可能比較複雜,效率不是很高。目前接觸較多的整合學習主要有2種 基於boosting的和基於bagging,前者的代表演算法有adaboost gbdt xgboost 後者的代表演算法主要是隨機森林。1.2 ...
機器學習(整合學習)
原創 2016年08月19日 15 56 13 同質 由型別相同的學習器組合而成的整合學習器,每個學習器可稱為基學習器 異質 由型別不相同的學習器組合而成的整合學習器,每個學習器可稱為 元件學習器 整合學習通過將多個學習器進行結合,常常可以獲得比單一學習器具有顯著優越的泛化效能。這個對於弱學習器尤為...