1、二分類模型
指標計算
備註精準率(precision)
precision=tp / (tp+fp)
在所有被**為陽性的測試資料中,真正是陽性的比率。
越大越好
召回率(recall)
recall=tp / (tp+fn)
在所有實際為陽性的測試資料中,真正是陽性的比率。
越大越好
f1score
f1score = 2*(precision * recall) / (precision + recall)
綜合精準率和召回率這兩個指標,並得出量化結果
越大越好
準確率(accuracy)
accuracy = (tp+tn) / (tp+tn+fp+fn) = (tp+tn) / count(samples)
分類模型**正確的結果在整體中的佔比例
2、多分類模型
假設樣本x1的真實分類是class1,它的**結果有n種可能(中的任何乙個)。但是不管**結果如何,從**與真實的符合程度來看,只有兩種可能:**正確(被**為class1),和**錯誤(被**為class1之外的任何一類)。
class1的精準率:class1_precision = class1_tp/(class1_tp+class1_fp),即在所有被**為class1的測試資料中,**正確的比率。
class1的召回率:class1_recall = class1_tp/(class1_tp+class1_fn),即在所有實際為class1的測試資料中,**正確的比率。
class1的f1score: class1_f1score = 2 * (class1_precision * class1_recall) / (class1_precision + class1_recall)
同理,class1的準確率:class1_accuracy = (class1_tp + class1_tn) / count(samples)
當我們評估乙個多分類模型的時候,一般不會用具體某乙個類的precision,recall或者accuracy去對其進行評價,而是會用乙個數值來代表整體效能。通常會用到的指標是整體準確率。
overall accuracy = 各類被**對了的樣本數量的累加 / 樣本總數 = sum (class_i_tp) / count(samples)
分類模型的評價
假如某個班級有男生80人,女生20人,共計100人。目標是找出所有女生。現在某人挑選出50個人,其中20人是女生,另外還錯誤的把30個男生也當作女生挑選出來了。評估 evaluation 下他的工作。1 accuracy 準確率 0 1損失。分類器 某人 正確分類的樣本數 總樣本數,即20 50 1...
分類模型的評價指標Fscore
小書匠 深度學習 分類方法常用的評估模型好壞的方法.假設我現在有乙個二分類任務,是分析100封郵件是否是垃圾郵件,其中不是垃圾郵件有65封,是垃圾郵件有35封.模型最終給郵件的結論只有兩個 是垃圾郵件與 不是垃圾郵件.經過自己的努力,自己設計了模型,得到了結果,分類結果如下 現在我們設定,不是垃圾郵...
如何評價我們分類模型的效能?
分類是將每個資料集合中的元素分配給乙個已知的資料類別。那麼分類都有哪些任務呢?這個階段將資料分為兩個或三個部分 這裡有兩種指標可以來評估乙個分類模型的質量 二分類 乙個類別被定義為正樣本,乙個類別被定義為負樣本。多分類乙個類別被定義為正類,其他類別的組合都是被定義為負類。正樣本應該是在建模過程中被識...