最近老是遇到多標籤分類問題?,加之自己對loss的理解還是不夠到位
自己還是對loss理解不夠,乾脆記錄下來了,以後遇到乙個記錄乙個:
nn.
crossentropyloss
(ignore_index=ignored_index)
計算的是qa中star_position的loss,同理end_position
start_loss =
loss_fct
(start_logits, start_positions) 其中start_logits.shape=
[bs,sl] start_position.shape=
[bs]
,start_position 是起始位置
nn.bce_loss()
計算的是文字的二分類,非零即一
loss_ =
myloss
(pred_labels, real_labels) 其中pred_labels.shape=
[bs,1]
,real_labels.shape=
[bs,1]
focalloss2
(alpha=
1, gamma=
2, logits=false, reduce=true)
計算的文字的多標籤分類,乙個文字可以同時屬於多個標籤
loss_ =
myloss
(pred_labels,real_labels) 其中pred_labels.shape=
[bs,num_labels]
, real_labels.shape=
[bs,num_labels]
criterion =
bcewithlogloss
(weights=all_label_w,pos_weight=pos_wieght_,type=
'pos'
)計算的是文字的多分類問題
loss =
criterion
(output,target) output.shape=
[bs,num_target]
, target.shape=
[bs,nt]
本blog會不斷更新?… 類別不均衡問題
機器學習建模分類問題裡,各個類別樣本量差異較大時,就會出現類別不均衡問題。e.g.如果有99999個無症狀病例,1個有症狀病例,即使訓練的學習器將所有樣本識別成無症狀病例,準確率也高達99.9 但是這樣的學習器沒有任何價值,無任何鑑別有症狀病例的價值。以下假設正例樣本數遠小於負例樣本數 1 欠取樣 ...
weka分類器怎麼設定類別 類別不均衡問題
類別不均衡就是指分類任務中不同類別的訓練樣例數目差別很大的情況。一 應用場景 二 演算法 如果不同類別的訓練樣例數目稍有差別,通常影響不大,但若差別很大,則會對學習過程造成困擾。例如有998個反例,2個正例,那麼學習方法只需要返回乙個永遠將新樣本 為反例的學習器,就能達到99.8 的精度。但是這樣的...
分類方法中樣本類別不均衡問題
大部分的分類學習方法都存在乙個基本的假設,訓練集中不同類別的訓練樣本數目差不多。如果不同類別的樣本數目差距很大,比如正類樣本有98個,而負類樣本只有2個,這種情況下學習出來的分類器只要一直返回正類的 結果,那很輕易的就能達到百分之九十八的正確率,但實際上這樣的模型並沒有什麼作用。欠抽樣,是指減少分類...