目錄
二、decisiontreeregressor
更新、更全的《機器學習》的更新**,更有python、go、資料結構與演算法、爬蟲、人工智慧教學等著你:
在scikit-learn庫中決策樹使用的cart演算法,因此該決策樹既可以解決回歸問題又可以解決分類問題,即下面即將講的decisiontreeclassifier
和decisiontreeregressor
兩個模型。
接下來將會討論這兩者的區別,由於是從官方文件翻譯而來,翻譯會略有偏頗,有興趣的也可以去scikit-learn官方文件檢視
decisiontreeclassifier
模型即cart演算法實現的決策樹,通常用於解決分類問題。
from sklearn.datasets import load_iris
from sklearn.model_selection import cross_val_score
from sklearn.tree import decisiontreeclassifier
iris = load_iris()
x = iris.data[:, [2, 3]]
y = iris.target
clf = decisiontreeclassifier(random_state=0)
clf.fit(x, y)
decisiontreeclassifier(class_weight=none, criterion='gini', max_depth=none,
max_features=none, max_leaf_nodes=none,
min_impurity_decrease=0.0, min_impurity_split=none,
min_samples_leaf=1, min_samples_split=2,
min_weight_fraction_leaf=0.0, presort=false, random_state=0,
splitter='best')
cross_val_score(clf, iris.data, iris.target, cv=10)
array([1. , 0.93333333, 1. , 0.93333333, 0.93333333,
0.86666667, 0.93333333, 1. , 1. , 1. ])
decision_path(x[, check_input]):返回樣本x在樹中的決策路徑。
fit(x,y):把資料放入模型中訓練模型。
get_params([deep]):返回模型的引數,可以用於pipeline中。
predict(x):**樣本x的分類類別。
predict_log_proba(x):返回樣本x在各個類別上對應的對數概率。
predict_proba(x):返回樣本x在各個類別上對應的概率。
score(x,y[,sample_weight]):基於報告決定係數r
2'>r2r2
評估模型。
set_prams(**params):建立模型引數。
decisiontreeregressor
即cart回歸樹,它與decisiontreeclassifier
模型的區別在於criterion特徵選擇標準與分類樹不同,它可以選擇'mse'和'mae',前者是均方誤差,後者是絕對值誤差,一般而言'mse'比'mae'更準確。
目錄二、decisiontreeregressor
更新、更全的《機器學習》的更新**,更有python、go、資料結構與演算法、爬蟲、人工智慧教學等著你:
在scikit-learn庫中決策樹使用的cart演算法,因此該決策樹既可以解決回歸問題又可以解決分類問題,即下面即將講的decisiontreeclassifier
和decisiontreeregressor
兩個模型。
接下來將會討論這兩者的區別,由於是從官方文件翻譯而來,翻譯會略有偏頗,有興趣的也可以去scikit-learn官方文件檢視
decisiontreeclassifier
模型即cart演算法實現的決策樹,通常用於解決分類問題。
from sklearn.datasets import load_iris
from sklearn.model_selection import cross_val_score
from sklearn.tree import decisiontreeclassifier
iris = load_iris()
x = iris.data[:, [2, 3]]
y = iris.target
clf = decisiontreeclassifier(random_state=0)
clf.fit(x, y)
decisiontreeclassifier(class_weight=none, criterion='gini', max_depth=none,
max_features=none, max_leaf_nodes=none,
min_impurity_decrease=0.0, min_impurity_split=none,
min_samples_leaf=1, min_samples_split=2,
min_weight_fraction_leaf=0.0, presort=false, random_state=0,
splitter='best')
cross_val_score(clf, iris.data, iris.target, cv=10)
array([1. , 0.93333333, 1. , 0.93333333, 0.93333333,
0.86666667, 0.93333333, 1. , 1. , 1. ])
decision_path(x[, check_input]):返回樣本x在樹中的決策路徑。
fit(x,y):把資料放入模型中訓練模型。
get_params([deep]):返回模型的引數,可以用於pipeline中。
predict(x):**樣本x的分類類別。
predict_log_proba(x):返回樣本x在各個類別上對應的對數概率。
predict_proba(x):返回樣本x在各個類別上對應的概率。
score(x,y[,sample_weight]):基於報告決定係數r
2'>r2r2
評估模型。
set_prams(**params):建立模型引數。
decisiontreeregressor
即cart回歸樹,它與decisiontreeclassifier
模型的區別在於criterion特徵選擇標準與分類樹不同,它可以選擇'mse'和'mae',前者是均方誤差,後者是絕對值誤差,一般而言'mse'比'mae'更準確。
02 25 scikit learn庫之決策樹
目錄二 decisiontreeregressor 人工智慧從入門到放棄完整教程目錄 在scikit learn庫中決策樹使用的cart演算法,因此該決策樹既可以解決回歸問題又可以解決分類問題,即下面即將講的decisiontreeclassifier和decisiontreeregressor兩個...
線性回歸 scikit learn
線性回歸即是我們希望能通過學習來得到乙個各屬性線性組合的函式,函式的各項係數表明了該屬性對於最後結果的重要性,可以用以下公式表達 y x 1 x1 2x2 pxp b線性回歸試圖讓各個點到回歸直線上的距離和最小,即最小化均方誤差。可用以下公式描述 min x y 22 matplotlib inli...
scikit learn工具安裝
最近老師布置了乙個cnn神經網路的任務,詞向量得到的原理和卷積神經網路工作的原理已經講過了,現在主要安裝scikit learn工具,利用tf idf方法來得到詞向量。在網上也發現了不少st learn工具的安裝教程,不過還是有點亂,自己整理一下,能幫助別人的話更好啦。首先,安裝sk learn需要...