pr曲線功能說明
pr曲線中的p代表的是precision(精準率),r代表的是recall(召回率),其代表的是精準率與召回率的關係,一般情況下,將recall設定為橫座標,precision設定為縱座標。
上述中介少了pr曲線的實質代表為precision(精準率)和recall(召回率),但是這二者是什麼呢?下面咱們進行相關的講述。
首先,我們了解一下混淆矩陣,如下表。
其中,把正例正確地分類為正例,表示為tp(true positive),把正例錯誤地分類為負例,表示為fn(false negative)。把負例正確地分類為負例,表示為tn(true negative), 把負例錯誤地分類為正例,表示為fp(false positive)。
從混淆矩陣可以得出精準率與召回率:
precision = tp/(tp + fp)
recall = tp/(tp +fn)
一條pr曲線要對應乙個閾值(統計學的概率)。通過選擇合適的閾值(比如k%)對樣本進行合理的劃分,概率大於k%的樣本為正例,小於k%的樣本為負例,樣本分類完成後計算相應的精準率和召回率,最後我們會得到對應關係,如下圖所示。
在眾多學習器對資料進行學習後,如果其中乙個學習器的pr曲線a完全包住另乙個學習器b的pr曲線,則可斷言a的效能優於b。但是a和b發生交叉,那效能該如何判斷呢?我們可以根據曲線下方的面積大小來進行比較,但更常用的是平衡點f1。平衡點(bep)是p=r時的取值(斜率為1),f1值越大,我們可以認為該學習器的效能較好。f1的計算如下所示:
f1 = 2 * p * r /( p + r )
ROC曲線 PR曲線
在 的結果分析中,roc和pr曲線是經常用到的兩個有力的展示圖。1.roc曲線 roc曲線 receiver operating characteristic 是一種對於靈敏度進行描述的功能影象。roc曲線可以通過描述真陽性率 tpr 和假陽性率 fpr 來實現。由於是通過比較兩個操作特徵 tpr和...
P R曲線和ROC曲線
混淆矩陣又稱錯誤矩陣,指每個類別下,模型 結果的類別和數量在乙個矩陣中展示出來。真實標籤 為正 為負 真實為正 tpfn 真實為負 fptn 又稱為 tpr true positive rate 或者 敏感度sensitivity 通俗理解 真實為正的樣本中識別為正的佔比。t pr tpt p fn...
PR曲線與ROC曲線
pr曲線中的p代表的是precision 精準率 r代表的是recall 召回率 其代表的是精準率與召回率的關係,一般情況下,將recall設定為橫座標,precision設定為縱座標。在機器學習中,分類器往往輸出的不是類別標號,而是屬於某個類別的概率值,根據分類器的 結果從大到小對樣例進行排序,排...