引入:機器學習中的precision和recall
gt\pred
positve
negative
positive
true positive
false negative
negative
false positive
true negative
p re
cisi
on=t
ptp+
fp
precision = \frac
precis
ion=
tp+f
ptp
r ec
all=
sens
itiv
ity=
tptp
+f
nrecall = sensitivity = \frac
recall
=sen
siti
vity
=tp+
fntpsp
ecif
icit
y=tn
tn+f
pspecificity=\frac
specif
icit
y=tn
+fpt
nprecision和recall的分子都是被正確分類(挑選)的部分,分別用挑選為正類的總數(tp+fp)和正類總數(tp+fn)來評估正確的比例。
f1 score便是以相同權重的調和平均去整合在這兩個指標:
1 f1
=1pr
ecis
ion+
1rec
all⟹
f1=2
∗p∗r
p+r⟹
f1=2
∗tp2
∗tp+
fp+f
n\frac = \frac+\frac\implies f^1=\frac\implies f^1=\frac
f11=p
reci
sion
1+r
ecal
l1⟹
f1=p
+r2∗
p∗r
⟹f1=
2∗tp
+fp+
fn2∗
tpdice係數 s=2
∣x⋂y
∣∣x∣
+∣y∣
=2∗t
p2∗t
p+fp
+f
ns = \frac=\frac
s=∣x∣+
∣y∣2
∣x⋂y
∣=2
∗tp+
fp+f
n2∗t
p∣ x⋂
y∣
|x\bigcap y|
∣x⋂y
∣是指x和y之間的交集,|x|和|y|分別表示x和y的元素個數。分子的係數為2,因為分母存在重複計算x和y之間共同元素。直觀上是計算x與y的相似性,本質上這是同時隱含precision和recall兩個指標。
x :分割影象的ground truth
y:分割影象的predict分割結果
dice係數差異函式為dice loss
d ic
elos
s=1−
dice
=1−2
∣x⋂y
∣∣x∣
+∣y∣
dice loss =1-dice = 1-\frac
dicelo
ss=1
−dic
e=1−
∣x∣+
∣y∣2
∣x⋂y
∣訓練網路求得極小值
網路最後一層輸出為sigmoid
網路最後一層啟用函式為softmax(如果是二分類問題,最後一層用softmax與sigmoid的效果是相同的),softmax適用於二分類多分類,經過softmax之後,各個類別加和為1。
二分類:
第i個神經元的交叉熵為
y il
og(y
i)+(
1−yi
)log
(1−y
i)
=-log(y_i) & \quad \hat y_i=1\\ -log(1-y_i) & \quad \hat y_i=0 \end
yilog
(yi
)+(1
−yi
)log
(1−y
i)=
=\begin -(1-y_i)^\gamma log(y_i) & \quad \hat y_i = 1\\ -(y_i)^\gamma log(1-y_i) & \quad \hat y_i=0 \end
lfl
==\begin -\alpha(1-y_i)^\gamma log(y_i) & \quad \hat y_i = 1\\ -(1-\alpha)(y_i)^\gamma log(1-y_i) & \quad \hat y_i=0 \end
lfl={
−α(1
−yi
)γlo
g(yi
)−(
1−α)
(yi
)γlo
g(1−
yi)
y^
i=1
y^i
=0
前面新加了乙個係數α
\alpha
α。當y^i
=1
\hat y_i=1
y^i=
1時,取α
\alpha
α,否則取係數取1−α
1-\alpha
1−α。(資料上說,一般而言正樣本的比例比負樣本的比例多,所以α
\alpha
α取值為0到0.5來增加負樣本的權重。)而我的實際應用場景是正樣本的比例遠遠小於負樣本,所以這個α
\alpha
α的取值應該為0.5到1之間。
**的實驗中,α
\alpha
α取值為0.25。
損失函式(loss function)
這篇博文翻譯得損失函式來自機器學習中一篇講義。1 損失函式 乙個統一的觀點 損失函式的一般定義如下,損失函式包含了兩部分 損失項和正則項。1.1 損失項 這小節將舉5個例子來說明損失項。這5個例子是gold standard 理想情況 hinge 軟間隔svm log 邏輯回歸,交叉熵誤差 squa...
關於損失函式 Loss Function
機器學習中常見的損失函式 一般來說,我們在進行機器學習任務時,使用的每乙個演算法都有乙個目標函式,演算法便是對這個目標函式進行優化,特別是在分類或者回歸任務中,便是使用損失函式 loss function 作為其目標函式,又稱為代價函式 cost function 損失函式是用來評價模型的 值 y ...
損失函式 損失函式 Hinge
本文討論hinge損失函式,該函式是機器學習中常用的損失函式之一。在機器學習中,hinge loss是一種損失函式,它通常用於 maximum margin 的分類任務中,如支援向量機。數學表示式為 其中 表示 輸出,通常都是軟結果 就是說輸出不是0,1這種,可能是0.87。表示正確的類別。其函式影...