loss太大:把lr改小
loss的下降速度非常慢:batchsize太小
訓練集的損失已經下降到比較滿意的值,但是(!!!!)驗證集上的損失幾乎沒有下降,或者是說相比與訓練集的損失值不在乙個數量級上!!!
最本質的原因:網路模型在小資料庫上出現過擬合。
訓練資料太少
精度不高或者為0的問題結果
來自 深度學習的效果很大程度上取決於引數調節的好壞
來自 資料增廣
訓練過程中train loss不斷下降,然而test loss卻不斷公升高,還有就是accuracy並不是很高只有60%
過擬合來自
train loss與test loss結果分析
來自 設定過優化函式sgd(使用adam也不收斂),且必須使dropout為0,訓練集才開始收斂
來自 解決過擬合
如果訓練誤差曲線和測試誤差曲線之間有很大的空隙,說明你的模型可能有過擬合的問題。
來自 增加訓練資料集 用個引數少點的模型 對損失函式增加懲罰項
網路收斂比
就是n對應到m的乙個過程,當n m時被稱作收斂.鑑於排隊論的原理,當有n個顧客按其概率到達要求服務時,如果在一定的服務質量 收斂條件 被約定,則本系統僅需要有m m簡單地說 話務量大則收斂比必須小.話務量小則收斂比可以大。舉個例子,對使用者級來說,從長時間平均來看,如果同時4個使用者只有其中乙個要通...
網路收斂比
就是n對應到m的乙個過程,當n m時被稱作收斂.鑑於排隊論的原理,當有n個顧客按其概率到達要求服務時,如果在一定的服務質量 收斂條件 被約定,則本系統僅需要有m m 簡單地說 話務量大則收斂比必須小.話務量小則收斂比可以大。舉個例子,對使用者級來說,從長時間平均來看,如果同時4個使用者只有其中乙個要...
網路流 (網路流問題彙總)
網路 1 有乙個源點 s 和匯點 t 2 每一條有向邊e u,v 都有乙個容量限制記做c e 流 定義在網路弧集上的實值函式 f 滿足三個性質 1 對任意的弧 0 f c e 容量限制。2 f u,v f v,u 反對稱性。3 流守恆性 除源匯點外,其餘頂點都是過度點,流進頂點的流總和等於流出頂點的...