平均絕對誤差(mean absolute error, mae), 又被稱為l1範數損失
平均平方誤差(mean squared error, mse ,又被稱為l2範數損失
二維混淆矩陣
**結果
真實類別
正例反例
正例真正例(true positive) tp
假反例(false negative) fn
反例假正例(false positive) fp
真反例(true negative)tn
(1) 準確率表示正確分類的測試例項的個數佔測試例項總數的比例,計算公式為
accuracy = tp + tn / tp + fp + fn + tn
在正負樣本不平衡的情況下,準確率這個評價指標有很大的缺陷。比如在互聯昂廣告裡面,點選的數量很少,一般只有千分之幾,如果用accuracy,即使全部**成負類(不點選),accuracy也有99%以上,沒有意義
(2)召回率也叫查全率, 表示正確分類的正例個數佔實際正例個數的比例
reccall = tp/(tp + fn)
(3) 精確度也叫查準率,表示正確分類的正例個數佔分類為正例的例項個數的比例,計算公式為
precision = tp/(tp + fp)
(4) f1-score 是基於召回率與精確率的調和平均,即將召回率和精確率綜合起來評價,計算公式為
roc曲線橫座標是fpr,縱座標是tpr
fpr = fp/(fp + tn)
tpr = tp/(tp + fn)
roc曲線越接近左上角,該分類器的效能越好
auc被定義為roc曲線下面的面積,顯然這個面積的數值不會大於1,auc的面積越大越好。如果auc值大,會有更多的正樣本被更大概率準確**,負樣本被**為正樣本的概率也會越小。
機器學習模型評價指標 混淆矩陣
在機器學習領域中,混淆矩陣 confusion matrix 是一種評價分類模型好壞的形象化展示工具。其中,矩陣的每一列表示的是模型 的樣本情況 矩陣的每一行表示的樣本的真實情況。1.混淆矩陣的舉例 例如用乙個分類模型來判別乙個水果是蘋果還是梨,混淆矩陣將會模型的 結果總結成如下表所示的 模型 結果...
機器學習模型評價指標 回歸任務
from sklearn.metrics import mean absolute error 沒找到sklearn怎麼實現,先用python 實現吧from sklearn.metrics import median absolute errorfrom sklearn.metrics impor...
機器學習演算法的評價指標
機器學習的目標是使得我們模型的泛化能力足夠強,因此我們需要有衡量模型泛化能力的評價標準。對不同種類的機器學習問題,評價標準不一樣。回歸問題常用均方誤差 mse 絕對誤差 mae 等評價指標,分類問題評價指標則較多,如下圖所示。本文主要講解分類問題的評價指標。首先解釋幾個二分類問題中常用的概念 tru...