**準確的有(0,0)(1,1),其餘的都是**錯誤的點
from sklearn.metrics import confusion_matrix # 引入混淆矩陣
confusion_matrix(y_test, y_predict)
from sklearn.metrics import precision_score # 計算精準率
precision_score(y_test, y_predict)
from sklearn.metrics import recall_score # 計算召回率
f1 = (2*precision * recall) / (precision + recall)
兩個值如果有乙個值偏小則整體偏小
兩個都大時才大
對兩個度量(精準率和召回率)的平衡計算
from sklearn.metrics import precision_recall_curve # 引入準確率和召回率的曲線函式
precision, recall, thresholds = precision_recall_curve(y_test, dec_fun)
# 傳入測試結果y_test和決策**結果decision_function
print
(precision.shape, recall.shape, thresholds.shape)
# threshold比其餘的小一,故繪圖時需要precision[:-1]
import matplotlib.pyplot as plt
plt.plot(thresholds, precision[:-
1], color=
'r')
# 分別畫出準確率和召回率的曲線
plt.plot(thresholds, recall[:-
1], color=
'b')
plt.show(
)plt.plot(recall, precision)
# 畫出準確率和召回率之間關係的曲線
# 引入roc曲線
plt.plot(fprs, tprs)
# 繪製roc曲線
plt.show(
)from sklearn.metrics import roc_auc_score # 引入roc的曲線面積函式
roc_auc_score(y_test, dec_fun)
# 求出roc曲線面積
# 對分類問題中的混淆矩陣,此時y目標有多個特徵值
4 4 分類準確度
分類準確度的計算方式 分類正確的樣本數 總樣本數 新加了score x test,y test 函式,不關心predict的具體值是多少 predict函式在score中呼叫 只關心模型的準確度 from sklearn.neighbors import kneighborsclassifier i...
03 分類準確度
在本文中,我們首先會再使用這樣的思路用我們的 knn 演算法在另外乙個更大一些的資料集上進行測試。與此同時,我們進一步來封裝 accuracy,同時也學習 sklearn 中分類的準確度相應的呼叫方式。最後,我們真正使用我們的測試資料集測試出的模型的結果來看,所謂的模型選擇是怎麼回事?在這個過程中,...
筆記 KNN之分類準確度
分類準確度 以sklearn中的手寫數字datasets.load digits為例,其是8 8的圖形,具有64個特徵值,類別由0到9 我們挑選出666這個圖形,將其視覺化 x digits.data some digit x 666 some digit image some digit.resh...