效果評估是模型選擇和演算法設計的重要步驟,知道評估優劣才能選擇最佳的模型和演算法,本節介紹一些有關評估方法的定義,凡是在統計或大資料領域都用得到
true positives, tp
true negatives, tn
false positives, fp
false negatives, fn)
分類器**正確性的比例,可以通過logisticregression.score() 來計算準確率
分類器**出的髒話中真的是髒話的比例
p=tp/(tp+fp)
也叫靈敏度。所有真的髒話被分類器正確找出來的比例。
r=tp/(tp+fn)
f-measure,精確率和召回率的調和均值。精確率和召回率都不能從差的分類器中區分出好的分類器,綜合評價指標平衡了精確率和召回率。
1/f+1/f=1/p+1/r即
f=2*pr/(p+r)
假陽性率,所有陰性樣本中分類器識別為陽性的樣本所佔比例
f=fp/(tn+fp)
roc曲線畫的是分類器的召回率與誤警率(fall-out)的曲線
roc曲線下方的面積,它把roc曲線變成乙個值,表示分類器隨機**的效果
scikit-learn畫roc曲線和auc值的方法如下:
import matplotlib.pyplot as plt
from sklearn.metrics import roc_curve, auc
false_positive_rate, recall, thresholds = roc_curve(pred, predictions)
roc_auc = auc(false_positive_rate, recall)
plt.plot(false_positive_rate, recall, 'b', label='auc = %0.2f' % roc_auc)
plt.show()
二元分類效果的評估方法
效果評估是模型選擇和演算法設計的重要步驟,知道評估優劣才能選擇最佳的模型和演算法,本節介紹一些有關評估方法的定義,凡是在統計或大資料領域都用得到 true positives,tp true negatives,tn false positives,fp false negatives,fn 分類器...
機器學習精簡教程之八 二元分類效果的評估方法
本文 效果評估是模型選擇和演算法設計的重要步驟,知道評估優劣才能選擇最佳的模型和演算法,本節介紹一些有關評估方法的定義,凡是在統計或大資料領域都用得到 true positives,tp true negatives,tn false positives,fp false negatives,fn ...
分類結果的評估方法
模型評估可以用在模型型別 調節引數及特徵組合中。通過模型評估來估計訓練得到的模型對於非樣本資料的泛化能力,並且還需要恰當的模型評估度量手段來衡量模型的效能表現。通常在回歸問題可以採用平均絕對誤差 mean absolute error 均方誤差 mean squared error 均方根誤差 ro...