net: "models/bvlc_alexnet/train_val.prototxt"
test_iter: 1000 #
test_interval: 1000 #
base_lr: 0.01 # 開始的學習率
lr_policy: "step" # 學習率的drop是以gamma在每一次迭代中
gamma: 0.1
stepsize: 100000 # 每stepsize的迭代降低學習率:乘以gamma
display: 20 # 沒display次列印顯示loss
max_iter: 450000 # train 最大迭代max_iter
momentum: 0.9 #
weight_decay: 0.0005 #
snapshot: 10000 # 沒迭代snapshot次,儲存一次快照
snapshot_prefix: "models/bvlc_reference_caffenet/caffenet_train"
solver_mode: gpu # 使用的模式是gpu
layer
transform_param
data_param
}
layer
transform_param
data_param
}
weight_filler
偏置項的初始化。一般設定為」constant」, 值全為0。
bias_filler
caffe下一些引數的設定
weight decay防止過擬合的引數,使用方式 1 樣本越多,該值越小 2 模型引數越多,該值越大 一般建議值 weight decay 0.0005 lr mult,decay mult 關於偏置與引數使用不同的學習率與權重衰減項 1 偏置的學習率一般為引數的兩倍 比如乙個卷積,有偏置的話,其...
caffe中的一些特殊層
reshape layerlayer 其中,dim依次表示num channels height width的變化,0表示保持不變,1表示根據其他維度自動推測出該維度的大小 crop layer layer 該層有兩個輸入a b,a是要裁剪的資料,b是裁剪的參考輸入,c是由a裁剪而來的,axis表示...
caffe中的一些檔案的作用及相關引數的解釋
2 將影象型別轉化為lmdb的檔案 create sh 如 create mnist.sh create cifar10.sh 3 配置檔案 x.prototxt 如 train test.prototxt 這個檔案是配置網路的,在個檔案中定義網路模型。solver.prototxt 在這個檔案中來...