1.函式
view(t)%畫出決策樹
prune %剪枝決策樹
t2=prune(t,'level','level'/'node')
%level:0 不剪枝 1 剪掉最後一層 2 最後兩層
%node: 剪掉第node個分支後的所有
eval %**
yfit=eval(t,x)
[yfit,nodes,cnum]=eval(t,x)
% x**樣本 yfit **結果 nodes 返回樣本所處節點位置
% cnum 返回約車類別
2.示例
load fisheriris結果:t=classregtree(meas,species,'name',);
view(t)
t2=prune(t,'level',1);
t2.view
[yfit,nodes,cnums]=eval(t,meas);
結果:
決策樹分類 matlab程式
使用id3決策樹演算法 銷量高低 clc clear 資料預處理 disp 正在進行資料預處理.matrix,attributes label,attributes id3 preprocess 構造id3決策樹,其中id3 為自定義函式 disp 資料預處理完成,正在進行構造樹.tree id3 ...
決策樹01 決策樹的原理
此筆記根據 machine learning in action 和周志華教授的 機器學習 所作。缺點 可能會產生過度匹配問題。適用資料型別 數值型和標稱型 machine learning in action if so return 類標籤 else 尋找劃分資料集的最好特徵 劃分資料集 建立分...
決策樹和CART決策樹
首先簡單介紹下決策樹 說到決策樹肯定離不開資訊熵 什麼是資訊熵 不要被這名字唬住,其實很簡單 乙個不太可能的時間居然發生了,要比乙個非常可能的時間發生提供更多的資訊。訊息說 今天早上太陽公升起 資訊量是很少的,以至於沒有必要傳送。但另一條訊息說 今天早上日食 資訊量就很豐富。概率越大資訊量就越少,與...