在深度學習中,精確率(precision)和召回率(recall)是常用的評價模型效能的指標,從公式上看兩者並沒有太大的關係,但是實際中兩者是相互制約的。我們都希望模型的精確了和召回率都很高,但是當精確率高的時候,召回率往往較低;召回率較高的時候精確率往往較低。
往往需要對模型的精確率和召回率做出取捨:
比如在一般的搜尋任務時,在保證召回率的同時,盡量提高精確率;
在癌症檢測、金融詐騙任務時,在保證精確率的同時,盡量提高召回率。
很多時候,我們需要綜合權衡這2個指標,這就引出了乙個新的指標f-score,這是綜合考慮precision和recall的調和值
當舉個栗子:
癌症檢查資料樣本有10000個,其中10個是有癌症的樣本。假設無癌症的9900個樣本中**正確了9980個,在10個癌症資料中**正確了9個,此時:
accuracy = (9+9980)/10000 = 99.89%
precision = 9/(9 + 10) = 47.36%
recall = 9 / 10 = 90%
f1-score = 2 x (47.36% x 90%)/(1 x 47.36% + 90%)
f2-score = 2 x (47.36% x 90%)/(4 x 47.36% + 90%)
深度學習2
1 神經網路為啥用交叉熵 通過神經網路解決多分類問題時,最常用二道一種放肆就是在最後一層設定n個輸出節點,無論在淺層神經網路還是在cnn 中都是如此,比如在alexnet中最後輸出層有1000個節點的輸出層。交叉熵就是用來判定實際的輸出和期望的輸出的接近程度。2 lstm與gru的區別 gru和ls...
機器學習 準確率 召回率 精確率 f1score等
機器學習中,如何評估乙個模型的好壞極關重要,否則訓練出來了我們自己都說不明白到底該不該用,一句話就是心裡沒底。本文將用較為白話的角度來闡述這些指標。注 這些指標 準確率 精確率 召回率 用中文表示容易混淆,例如準確率和精確率,本文將用英文來進行表述 在介紹之前,我們先上乙個二分類的例子 假定已經根據...
深度學習 Dropout原理及其python實現
1 dropout簡述 dropout是解決神經網路模型過擬合的一種常用方法。dropout是指在神經網路訓練過程中,以一定的概率隨機丟棄神經元 注意是暫時丟棄 以減少神經元之間的依賴性,從而提高模型的泛化能力。dropout類似ensemble方法 組合多個模型,以獲得更好的效果,使整合的模型具有...