from sklearn.tree import decisiontreeclassifier as dtc
dtc = dtc(criterion=『entropy』) #建立決策樹模型,基於資訊熵
dtc.fit(x, y) #訓練模型
#匯入相關函式,視覺化決策樹。
#匯出的結果是乙個dot檔案,需要安裝graphviz才能將它轉換為pdf或png等格式。
from sklearn.tree import export_graphviz
x = pd.dataframe(x)
x = pd.dataframe(x)
with open(「tree.dot」, 『w』) as f:
f = export_graphviz(dtc, feature_names = x.columns, out_file = f)
決策樹的生成與剪枝
樹模型描述 從根節點開始,使用某種特徵選取準則,如資訊增益,選取剩餘特徵作為節點,樹不一定是二叉樹,每一層的節點個數為父節點特徵的distinct數,每個節點對應的樣本數小於父節點對應的樣本數,當節點特徵對應的資訊增益小於某個值或者沒有剩餘特徵時,選擇該節點對應樣本中最大的類別作為葉節點,停止這個分...
決策樹與整合學習
由於機器學習涉及的方法很廣,對機器學習有了乙個橫向巨集觀的把握之後,需要縱向對某一類方法進行深入的學習。因為要研究的課題內容是有監督學習,因此選擇一類有監督的學習方法進行深入的研究 整合學習綜述 2016年10月 目前來說機器學習的研究主要分為四個大方向 a 通過整合學習方法提高學習精度 b 擴大學...
決策樹學習
決策樹學習是一種逼近離散值目標函式的方法,在這種方法中學習到的函式被表示為一棵決策樹。決策樹通過把例項從艮節點排列到某個葉子結點來分類例項,葉子結點即為例項所屬的分類。樹上的每乙個結點指定了對例項的某個屬性的測試,並且該結點的每乙個後繼分支對應於該屬性的乙個可能值。分類例項的方法是從這棵樹的根節點開...