這與我訓練中使用的ssd_mobilenet_v2_coco.config檔案基本類似。
下面簡單補充幾點:
1,anchor_generator引數的配置。
其中預設引數如下:
min_scale: 0.2
max_scale: 0.95
修改建議:對訓練集中的box寬度進行統計,進行相應修改。
2, post_processing
該部分引數也可以根據需要調整。
batch_non_max_suppression
score_converter: sigmoid # 檢測分數的轉換器型別選擇
3,train_config: 最重要的修改部分:訓練引數
}momentum_optimizer_value: 0.9 # 衝量 在學習率比較小時,較大的衝量(衝量不超過1)可以加速收斂。
decay: 0.9
epsilon: 1.0}}
4,fine_tune_checkpoint
設定預訓練模型的路徑,用於精調,並非用於0步訓練時使用。
待補充ing
訓練模型積累
1 學習率 base lr 如果學習率較小,訓練會變得更加可靠,但是優化會耗費較長的時間,因為朝向損失函式最小值的每個步長很小。如果學習率較大,訓練可能根本不會收斂,甚至會發散。權重的改變量可能非常大,使得優化越過最小值,使得損失函式變得更糟。備註 訣竅就是從乙個低學習率開始訓練網路,並在每個批次中...
語言模型訓練
模型訓練 nohup ngram count text tieba.word.merged order 4 vocab words.txt kndiscount interpolate lm tieba.word.4gram.lm 結果測試 ngram lm tieba.word.4gram.lm ...
預訓練模型
elmo elmo是一種是基於特徵的語言模型,用預訓練好的語言模型,生成更好的特徵。而elmo的主要做法是先訓練乙個完整的語言模型,再用這個語言模型去處理需要訓練的文字,生成相應的詞向量。文字分類實戰 九 elmo 預訓練模型 在nlp領域,使用預訓練模型或元件的監督學習任務被稱為下游任務 bert...