]# 儲存決策樹模型的陣列
n_trees =
20# 設定樹的顆數
for i in
range
(n_trees)
: tmp = df.sample(frac=
1,replace=
true
)# 對樣本進行取樣,目的是建造不同的樹
x = tmp.iloc[:,
:-1]
# 構造x
y = tmp.iloc[:,
-1]# 構造y
model =decisiontreeclassifier(max_depth=2)
# 新建決策樹模型
model.fit(x,y)
# 將決策樹模型加入陣列
# 列印每個基礎模型的效果
x = df.iloc[:,
:-1]
# 獲取全部資料的x
y = df.iloc[:,
-1]# 獲取全部資料的y
res =
0# 初始化全零向量
for i in m:
# 遍歷模型陣列
res += i.predict(x)
# 將每個模型**值疊加到res變數
# 取平均輸出最終對每個樣本標籤的**值
res = np.sign(res)
(res)
'''# 效果
>>[ 1 1 1 -1 -1 -1 1 1 1 1]
'''
機器學習之整合學習(二)
1.隨機森林 rf rf是對bagging的進化版,首先都是有放回的進行取樣,獲得n個訓練集從而訓練n個弱分類器,但是rf在隨機選取的訓練集的基礎上對於特徵的選擇也是隨機的,隨機的選取一部分的特徵進行弱分類器的構建,同時在劃分建樹的過程中也是從這些隨機選取的部分特徵中選擇最優的特徵。使用的為同質個體...
機器學習之整合學習
整合學習 ensemble learning 通過構建並結合多個弱學習器來完成學習任務。一般來說整合學習可以分為三大類 bagging又叫做自舉匯聚法,思想是 常見的推廣演算法有 extra tree是隨機森林的變種,原理和隨機森林一樣,區別如下 主要用於異常點檢測 在隨機取樣的過程中,一般只需要少...
機器學習演算法之整合學習
在機器學習問題中,對於乙個複雜的任務來說,能否將很多的機器學習演算法組合在一起,這樣計算出來的結果會不會比使用單一的演算法效能更好?這樣的思路就是整合學習方法。三個臭皮匠,頂個諸葛亮。實際操作中,整合學習把大大小小的多種演算法融合在一起,共同協作來解決乙個問題。這些演算法可以是不同的演算法,也可以是...