precision在西瓜書上被稱作查準率
p =t
ptp+
np=被
判定成正
例的正例
被判定成
正例的正
例+被判
定成正例
的反例.
....
.(1)
p=\frac=\frac......(1)
p=tp+n
ptp
=被判定
成正例的
正例+被
判定成正
例的反例
被判定成
正例的正
例..
....
(1)例子:搜尋引擎搜尋到資訊中使用者感興趣的內容所佔的百分比
搜尋到的資訊:亂七八糟有對有錯→tn+fp
使用者感興趣的內容:使用者認為對的→tn
相當於電影《黑水》中杜邦公司給比洛特的全部有關的無關資料,讓他在裡面找
recall在西瓜書上被稱作查全率
r =t
ptp+
fn=被
判定成正
例的正例
被判定成
正例的正
例+被判
定成反例
的正例.
....
.(2)
r=\frac=\frac......(2)
r=tp+f
ntp
=被判定
成正例的
正例+被
判定成反
例的正例
被判定成
正例的正
例..
....
(2)利用置信區間範圍的大小計算當前的p、r
可以看出p和r是成反比的.
借助公式(1)我們可以理解當p越接近於1時,tp的數量不變時,fp的數量會相對減少,即被誤認為正例的反例的數量減少,這就意味著以**的視角來判斷目標(正例)的標準相對嚴格,濫竽充數的就少了。
借助公式(2)我們又可以看出,r接近於1,在保持tp的數量同時,fn的數量會相對減少,即被誤認為是反例的正例數量減少,正例代表特徵不明顯的正例仍然會被放在正例集中,就是**大佬裝的再像都要進男廁所,這樣我們將r的增大理解為判斷標準的放寬,如此就少了不少漏網之魚。
精確率 召回率 RoC曲線 PR曲線
ps1 統計中,第一類錯誤 事實為真,被認為是假 第二類錯誤 事實為假,確認為是真 ps2 roc曲線,曲線上每乙個點對應乙個模型,對於同一條曲線上,是指同乙個演算法中所有模型,不同曲線代表圖通演算法。1 tp,tn,fp,fn的概念 圖如下所示,裡面綠色的半圓就是tp true positives...
精確率與召回率,ROC曲線與PR曲線
在機器學習的演算法評估中,尤其是分類演算法評估中,我們經常聽到精確率 precision 與召回率 recall roc曲線與pr曲線這些概念,那這些概念到底有什麼用處呢?首先,我們需要搞清楚幾個拗口的概念 true positives,tp 為正樣本,實際也為正樣本的特徵數 false posit...
精確率與召回率,RoC曲線與PR曲線
在機器學習的演算法評估中,尤其是分類演算法評估中,我們經常聽到精確率 precision 與召回率 recall roc曲線與pr曲線這些概念,那這些概念到底有什麼用處呢?首先,我們需要搞清楚幾個拗口的概念 true positives,tp 為正樣本,實際也為正樣本的特徵數 false posit...