jlu-ipvr 聽笙
要執行caffe,需要先建立乙個模型(model),如比較常用的lenet,alex等, 而乙個模型由多個層(layer)構成,每一層又由許多引數組成。所有的引數都定義在caffe.prototxt這個檔案中。要熟練使用caffe,最重要的就是學會配置檔案(prototxt)的編寫。
層有很多種型別,比如data,convolution,pooling等,層之間的資料流動是以blobs的方式進行。
今天我們就先介紹一下資料層.
資料層是每個模型的最底層,是模型的入口,不僅提供資料的輸入,也提供資料從blobs轉換成別的格式進行儲存輸出。通常資料的預處理(如減去均值, 放大縮小, 裁剪和映象等),也在這一層設定引數實現。
所有的資料層的都具有的公用引數:先看示例
layer
1. 資料來自資料庫(levedb和lmdb)
層型別(layertype):data
必須設定的引數:
source: 包含資料庫的目錄名稱,如examples/mnist/mnist_train_lmdb
batch_size: 每次處理的資料個數,如64可選的引數:
rand_skip: 在開始的時候,路過某個資料的輸入。通常對非同步的sgd很有用。
backend: 選擇是採用leveldb還是lmdb, 預設是leveldb.示例:
layer
transform_param
data_param
}2、資料來自於記憶體
層型別:memorydata
必須設定的引數:
batch_size:每一次處理的資料個數,比如2
channels:通道數
height:高度
width: 寬度
示例:layer
transform_param
}3、資料來自於hdf5
層型別:hdf5data
必須設定的引數:
source: 讀取的檔名稱
batch_size:每一次處理的資料個數
示例:layer
}4、資料來自於
層型別:imagedata
必須設定的引數:
batch_size: 每一次處理的資料個數,即數
可選引數:
rand_skip: 在開始的時候,路過某個資料的輸入。通常對非同步的sgd很有用。
shuffle: 隨機打亂順序,預設值為false
new_height,new_width: 如果設定,則將進行resize
示例:layer
image_data_param
}5、資料**於windows
層型別:windowdata
必須設定的引數:
source: 乙個文字檔案的名字
batch_size: 每一次處理的資料個數,即數
示例:layer
transform_param
window_data_param
}
資料層及引數
要執行caffe,需要先建立乙個模型 model 如比較常用的lenet,alex等,而乙個模型由多個屋 layer 構成,每一屋又由許多引數組成。所有的引數都定義在caffe.proto這個檔案中。要熟練使用caffe,最重要的就是學會配置檔案 prototxt 的編寫。層有很多種型別,比如dat...
Caffe資料層及引數
一.資料層及引數 要執行caffe,需要先建立乙個模型 model 如比較常用的lenet,alex等,而乙個模型由多個屋 layer 構成,每一屋又由許多引數組成。所有的引數都定義在caffe.proto這個檔案中。要熟練使用caffe,最重要的就是學會配置檔案 prototxt 的編寫。層有很多...
caffe的資料層及引數
要執行caffe,需要先建立乙個模型 model 如比較常用的lenet,alex等,而乙個模型由多個屋 layer 構成,每一屋又由許多引數組成。所有的引數都定義在caffe.proto這個檔案中。要熟練使用caffe,最重要的就是學會配置檔案 prototxt 的編寫。層有很多種型別,比如dat...