4.1 學習目標
掌握常見的評價函式和損失函式dice、iou、bce、focal loss、lovász-softmax;
掌握評價/損失函式的實踐;
4.2 tp tn fp fn
在講解語義分割中常用的評價函式和損失函式之前,先補充一**tp(真正例 true positive) tn(真反例 true negative) fp(假正例 false positive) fn(假反例 false negative)**的知識。在分類問題中,我們經常看到上述的表述方式,以二分類為例,我們可以將所有的樣本**結果分成tp、tn、 fp、fn四類,並且每一類含有的樣本數量之和為總樣本數量,即tp+fp+fn+tn=總樣本數量。
上述的概念都是通過以**結果的視角定義的,可以依據下面方式理解:
**結果中的正例 → 在實際中是正例 → 的所有樣本被稱為真正例(tp)《**正確》
**結果中的正例 → 在實際中是反例 → 的所有樣本被稱為假正例(fp)《**錯誤》
**結果中的反例 → 在實際中是正例 → 的所有樣本被稱為假反例(fn)《**錯誤》
**結果中的反例 → 在實際中是反例 → 的所有樣本被稱為真反例(tn)《**正確》
這裡就不得不提及精確率(precision)和召回率(recall): pre
cisi
on=t
ptp+
fpre
call
=tpt
p+fn
precision=\frac \ recall=\frac
precis
ion=
tp+f
ptp
reca
ll=t
p+fn
tppre
cisi
on
precision
precis
ion代表了**的正例中真正的正例所佔比例;rec
al
lrecall
recall
代表了真正的正例中被正確**出來的比例。
轉移到語義分割任務中來,我們可以將語義分割看作是對每乙個影象畫素的的分類問題。根據混淆矩陣中的定義,我們亦可以將特定畫素所屬的集合或區域劃分成tp、tn、 fp、fn四類。
Keras 損失函式與評價指標詳解
2020.12.03更新 pytorch不香麼 regression losses 2 metrics 變數定義 損失函式的分類 probabilistic losses binarycrossentropy class 輸入示例 y true 0.1.0.0.y pred 0.6,0.4 0.4,...
Keras損失函式 評價標準
計算真實標籤和 標籤之間的交叉熵損失 當只有兩個標籤類 假設為0和1 時,使用這個交叉熵損失。對於每個示例,每個 都應該有乙個浮點值 tf.keras.losses.binary crossentropy y true tf.cast label,dtype tf.float32 y pred tf...
得分函式與損失函式
得分函式就是對於給定的乙個輸入,通過計算,得到這個輸入屬於每種類別的得分。比如我們現在有三個類別 小貓 小狗和青蛙,對於一張給定的,計算出這個是小貓的得分,是小狗的得分以及是青蛙的得分。對於中間的計算過程 其中w和b為權重引數。下面介紹如何計算 這裡我們假設小貓的為2x2的矩陣由四個畫素點組成,我們...