tp tn fp fn
在講解語義分割中常用的評價函式和損失函式之前,先補充一 tp(真正例 true positive) tn(真反例 true negative) fp(假正例 false positive) fn(假反例 false negative) 的知識。在分類問題中,我們經常看到上述的表述方式,以二分類為例,我們可以將所有的樣本**結果分成 tp、tn、fp、fn 四類,並且每一類含有的樣本數量之和為總樣本數量,即tp+fp+fn+tn= 總樣本數量。其混淆矩陣如下:
上述的概念都是通過以**結果的視角定義的,可以依據下面方式理解:• **結果中的正例 在實際中是正例 的所有樣本被稱為真正例(tp)< **正確 >
• **結果中的正例 在實際中是反例 的所有樣本被稱為假正例(fp)< **錯誤 >
• **結果中的反例 在實際中是正例 的所有樣本被稱為假反例(fn)< **錯誤 >
• **結果中的反例 在實際中是反例 的所有樣本被稱為真反例(tn)< **正確 >
這裡就不得不提及精確率(precision)和召回率(recall):
p recision =t p/(t p + f p)iou(intersection over union)recall =t p/(t p + f n)
p recision 代表了**的正例中真正的正例所佔比例;recall 代表了真正的正例中被正確**出來的比例。
轉移到語義分割任務中來,我們可以將語義分割看作是對每乙個影象畫素的的分類問題。根據混淆矩陣中的定義,我們亦可以將特定畫素所屬的集合或區域劃分成 tp、tn、fp、fn 四類。
iou指標就是常說的交並比,不僅在語義分割評價中經常被使用,在目標檢測中也是常用的評價指標。顧名思義,交並比就是指 target 與 prediction 兩者之間交集與並集的比值:dice 評價指標iou =(t ∩ p)/(t ∪ p)=t p/(f p + t p + f n)
dice 係數(dice coefficient)是常見的評價分割效果的方法之一,同樣也可以改寫成損失函式用來度量 prediction 和 target 之間的距離。dice 係數定義如下:
dice(t, p) = 2|t ∩ p|
|t| ∪ |p|
=2t p
f p + 2t p + f n
式中:t 表示真實前景(target),p 表示**前景(prediction)。dice 係數取值範圍為 [0, 1],其中值為1 時代表**與真實完全一致。仔細觀察,dice 係數與分類評價指標中的 f1 score 很相似:
1/f1=1/precision+f1/recall=2tp/(f p + 2t p + f n)
所以,dice 係數不僅在直觀上體現了 target 與 prediction 的相似程度,同時其本質上還隱含了精確
率和召回率兩個重要指標。
計算 dice 時,將 |t ∩ p| 近似為 prediction 與 target 對應元素相乘再相加的結果
天池語義分割task03
1 fcn 原理及網路結構 fcn 首先將一幅 rgb 影象輸入到卷積神經網路後,經過多次卷積以及池化過程得到一系列的特徵 圖,然後利用反卷積層對最後乙個卷積層得到的特徵圖進行上取樣,使得上取樣後特徵圖與原影象的大小一樣,從而實現對特徵圖上的每個畫素值進行 的同時保留其在原影象中的空間位置資訊,最後...
天池語義分割task05
乙個成熟合格的深度學習訓練流程至少具備以下功能 在訓練集上進行訓練,並在驗證集上進行驗證 模型可以儲存最優的權重,並讀取權重 記錄下訓練集和驗證集的精度,便於調參。一 學習目標 理解驗證集的作用,並使用訓練集和驗證集完成訓練 學會使用 pytorch 環境下的模型讀取和載入,並了解調參流程 二 構造...
動手學深度 Task04
思考 課程中提到了beam search 覺得講的太粗略,而且例子給的不清晰,留下兩個疑問 在beam search裡面,每乙個保留的是所有搜尋的top k最優,還是一開始分成k個子搜尋,然後每一步保留子搜尋的最優?最終有k個結果,如何選擇最優?注意力機制,簡單的理解,就是對輸入進行加權求平均,而這...