感謝我的同事@徐樺所作的工作
早期的人臉識別的loss主要是以contrastive loss 和tripletloss為主,但隨著資料集的增大,需要複雜的資料對構造策略,否則搜尋空間是o(n
2o(n2)和o (n
3)o(n3
),效果明顯不如softmax系列
softmax with loss 是一種常見的分類loss,優點是:擅長類間競爭,凸顯正確標籤與錯誤標籤的差異。
缺點:對類內差異的表徵差,學到的特徵較為鬆散,一般用於人臉loss時,會將bias項置為零
假設是乙個十個分類問題,那麼每個類都會對應乙個權值向量w0,
w1,w
....
.w9w_0,w_1,w_.....w_9
w0,w1
,w.
...
.w9
,某個特徵f會被分為哪一類,取決於和哪乙個權值向量的內積最大。模型固定後,權重w
ww固定,因此f
ff與w
ww的內積只取決於它們的家教,故特徵呈輻射裝分布,在推理時f
1f_1
f1和f
2f_2
f2是否相似由它們的歐式距離決定,但由於模長差異巨大,常常有如圖的結果
center loss是最早開始修正softmax loss的工作,簡單地在softmax的基礎上增加了乙個與類中心距離的正則項,粗暴地拉近了類內距離
但乘性margin存在乙個很大的問題是,本身這類間距較小,margin也較小,比較難處理一些難例
人臉識別的LOSS(多分類Softamx)
早期深度人臉識別方法,框架為cnn softmax,以 超多分類 這樣一種比較難的任務訓練cnn,強迫網路在第乙個fc層形成比較緊湊的,判別力很強的深度人臉特徵,之後用於人臉識別。softmax是soft 軟化 的max。在cnn的分類問題中,我們的ground truth是one hot形式,下面...
人臉識別常用資料集和Loss
資料集的noise對訓練效果的影響很大!很長一段時間megaface的效果都上不去,就是因為資料集雜訊的原因。而且自己在訓練人臉的時候,如果不對資料集的雜訊和屬性有一點了解,對訓練結果可能會有誤判,甚至越訓練越差 在選擇資料集的時候不要一味求大,有的時候選擇乙個noise比例極高的大資料集,效果還不...
人臉檢測的效能對比
no1 protopath os.path.sep.join args detector deploy.prototxt modelpath os.path.sep.join args detector res10 300x300 ssd iter 140000.caffemodel net cv2...