我們現在先來看看常見的loss函式具有什麼樣的特點;
首先我們來看看 cross entropy loss的公式,(這裡我們參考pytorch中的公式):
好像有點不容易看懂,這裡我把它歸納一下,
這裡的公式等價於,
l os
s(x,
clas
s)=−
logq
(x)loss(x,class) = -logq(x)
loss(x
,cla
ss)=
−log
q(x)
這裡的q(x
)q(x)
q(x)
指的是真實的概率,在實際情況中真實的概率一般是「0和1」,也就是我們人類的標註的資訊;
我們首先來看看 focal loss的公式,(公式來自於retinanet的原始**):
我們先來看看 dice loss的公式:
d ic
e=2∣
a∩b∣
∣a∣+
∣b∣,
dice
loss
=1−2
∣a∩b
∣∣a∣
+∣b∣
,dice = \frac, \quad diceloss = 1 - \frac,
dice=∣
a∣+∣
b∣2∣
a∩b∣
,di
celo
ss=1
−∣a∣
+∣b∣
2∣a∩
b∣,
不過這跟原始**的公式看起來有點不一樣,
原始**的公式是這樣寫的,
其實不是很好理解,這裡把 dice loss的計算包含在了梯度的公式中,其實它是由文中的 dice coefficient d
dd引申出來的,其中d的公式為:
其中p
ip_i
pi是**的概率值,q
iq_i
qi是真實值;
會使loss變得不穩定;
語義分割 loss函式的學習筆記
bce 二分類交叉熵 binary cross entropy 在pytorch中對應著函式torch.nn.bceloss 具體公式如下 引用自pytorch官方文件 bce loss需要搭配sigmoid函式一起使用,具體的使用方法可以參考pytorch官方文件中的example m nn.si...
語義分割之損失函式綜述
來自cvpr2020,a survey of loss functions for semantic segmentation code 作者彙總了在語義分割領域中常用的幾種損失函式,並列出其適用場景。同時,作者也剔除了一種新的損失函式 log cosh dice loss function a b...
深度學習 語義分割總結
翻譯自qure.ai 什麼是語義分割 對的每個畫素都做分類。較為重要的語義分割資料集有 voc2012 以及 mscoco 有哪幾種方法 傳統機器學習方法 如畫素級的決策樹分類,參考textonforest 以及 random forest based classifiers 再有就是深度學習方法。...