今天我們學習下隨機森林做回歸的用法
話不多說直接上測試**,看的更加清晰,總體上和回歸樹是一樣的使用流程
from sklearn.datasets import load_boston
from sklearn.model_selection import cross_val_score
from sklearn.ensemble import randomforestregressor
import sklearn
# 載入連續型資料,boston房價
boston = load_boston(
)# 定義隨機森林回歸樹
reg = randomforestregressor(criterion=
'mse'
, n_estimators=
100, random_state=0)
print
(sorted
(sklearn.metrics.scorers.keys())
)# 模型的所有的評估打分指標, neg_mean_squared_error 也在其中
# 使用交叉驗證介面進行測試
scores = cross_val_score(reg, boston.data, boston.target, cv=
10, scoring=
"neg_mean_squared_error"
)# scoring 預設 r平方
print
(scores)
reg = reg.fit(boston.data, boston.target)
# 使用predict介面,看看**的效果噻
print
(boston.target[0:
10])res = reg.predict(boston.data)
print
(res[0:
10])
scikit learn 隨機森林
在隨機森林中,集合中的每棵樹都是根據訓練集中的替換樣本 即引導樣本 構建的。此外,在樹的構造過程中拆分每個節點時,可以從所有輸入要素或size的隨機子集中找到最佳拆分 max features。這兩個隨機性 的目的是減少森林估計量的方差。實際上,單個決策樹通常表現出較高的方差並且傾向於過度擬合。森林...
scikit learn中的隨機森林模型
和決策樹模型類似,scikit learn中的隨機森林模型也提供了基於普通decision tree的random forest學習器和基於隨機化extra tree的extratrees學習器。鑑於decision tree和extra tree差別甚小,本文以random forest為例進行介...
scikit learn 極限森林
from sklearn.ensemble import extratreesclassifier,randomforestclassifier from sklearn.tree import decisiontreeclassifier from sklearn.model selection ...