視覺層包括convolution, pooling, local response normalization (lrn), im2col等層。
這裡介紹下conv層。
layerparam
convolution_param
bias_filler
}}
輸入:n*c0*w0*h0
輸出:n*c1*w1*h1
其中,c1就是引數中的num_output,生成的特徵圖個數
w1=(w0+2*pad-kernel_size)/stride+1;
h1=(h0+2*pad-kernel_size)/stride+1;
如果設定stride為1,前後兩次卷積部分存在重疊。如果設定pad=(kernel_size-1)/2,則運算後,寬度和高度不變。
更多參考:
介紹了convolution,pooling,lrn層的引數。
需要格外注意的是im2col層,以前在matlab中用過,沒明白是什麼,博主給的圖描述的很清晰了。
這張圖也揭示了多個特徵圖、多個卷積核時是如何運算的,一目了然。
caffe學習系列(3) 資料層介紹
乙個模型由多個層構成,如data,conv,pool等。其中資料層是模型的最底層,是模型的入口。提供資料的輸入,也提供資料從blobs轉換成別的格式進行儲存輸出還包括資料的預處理 如減去 均值,放大縮小,裁剪和映象等 資料來源來自高效的資料庫 如leveldb和lmdb 或者hdf5 檔案和格式檔案...
caffe學習系列 層解讀
層型別 accuracy layer 可以看到,caffe中計算accuracy時,是通過比較最後乙個全連線層 神經元個數 類別數 但沒有加入activation function 的輸出和資料集的labels來得到的,計算過程在accuracylayer中實現 我也一直非常困惑,計算accurac...
caffe層筆記系列Loss層
1.可選引數 1 ignore label int型變數,預設為空。如果指定值,則label等於ignore label的樣本將不參與loss計算,反向傳播時梯度直接置0。2 normalize bool型變數,即loss會除以參與計算的樣本總數,否則loss等於直接求和。3 normalizati...