幾天無聊,看darknet的原始碼
1. 學習率
訓練的時候看到輸出資訊沒有learning rate, 進**看看,發現 network.c 裡面的get_current_rate(net) 就是獲取學習率的,列印出來的rate就是lr啦
另外,訓練densenet的時候,先burning_in=1000batch, 學習率由0 逐漸公升為 初始的學習率
另外,net.seen 是多張張圖,訓練每個batch 多少找圖,net.seen 就是當前batch 載入了多少張圖
route layer
看densenet 裡面多次用到 route layer, 就進**看看,主要看parser.c 和route_layer.c
我不明白作者為什麼這麼命名啦,不過我知道這一層是幹嘛的
如果 out_h,out_w,out_c
1 conv 64, 64, 96
2. ...
3. conv 64, 64, 32
4. route -1,-3
其實就是 route 3, 1
這一層其實就是concate層, 輸出為 64,64,(96+32=128)
下面是parse_route的部分
convolutional_layer first = net.layers[layers[0]];
layer.out_w = first.out_w;
layer.out_h = first.out_h;
layer.out_c = first.out_c;
for(i = 1
; i < n; ++i)else
}
densenet
看了最近darknet 更新了imagenet的 網路,densenet201,
網路設計
我看了我改的resi-block, 和densenet,以及icip看到的ror, 設計區別如下
感覺這些東西,網路框架自己改改,肯定能弄出更小更好的,就是gpu不給力啊,訓練一次imagenet 估計要12天
深度學習 1
基本概念 訓練集,測試集 特徵值 監督學習 非監督學習 半監督徐熙 分類 回歸 概念學習 從某個布林函式的輸入輸出訓練樣例中推斷出該布林函式 例項集合x x 樣例 x 每乙個例項 c x 目標概念 學習目標 f x y 訓練集 training set data 訓練樣例training examp...
深度學習1
深度學習概念理解 1.訓練集 一組資料用來訓練模型 2.驗證集 一組資料,用來調整模型引數 交叉驗證 3.測試集 與訓練集保持相同分布的一組分布,用來測試模型的好壞 不參與模型的引數調整 4.batchsize 一次用來訓練的樣本數目。太小,不收斂 太大,訓練速度下降,記憶體也可能支援不住 5.ep...
深度學習1
收到的任務是用深度學習求解偏微分方程,所以只學習機器學習中的深度學習 這篇部落格是梳理整個學習框架,由機器學習的一些基本概念到深度學習,其中涉及到的一些小知識點分別寫在別的部落格中 1.機器學習分類 deep learning 屬於機器學習中監督學習的非線性模型 可是在後面的學習過程中,發現deep...