1、sigmoid
layer
2、relu/retified-linear and leaky-relu
可選引數:negative_slope:預設為0。對標準的relu函式進行變化,如果設定了這個值,那麼資料為負數時,就不再設定為0,而是原始資料乘以negative_slope。
layer
relu層支援in-place計算,這意味著bottom輸出和輸入相同以避免記憶體的消耗。
3、tanh/hyperbolic tangent
layer
4、absolute value
layer
5、power
對每個輸入資料進行冪運算
可選引數:
power: 預設為1
scale: 預設為1
shift: 預設為0
layer
}
6、bnll
f(x) = log(1+exp(x))
layer
Caffe學習(七)啟用函式
啟用函式的起源是希望該函式能夠對神經元進行建模,進而起到對輸入的資料進行非線性響應的過程。啟用函式應該具有的性質 1 非線性。線性啟用層對於深層神經網路沒有作用,因為其作用以後仍然是輸入的各種線性變換。2 連續可微。梯度下降法的要求。3 範圍最好不飽和,當有飽和的區間段時,若系統優化進入到該段,梯度...
caffe 學習系列啟用層及其引數
在啟用層中,對輸入資料進行啟用操作 實際上就是一種函式變換 是逐元素進行運算的。從bottom得到乙個blob資料輸入,運算後,從top輸出乙個blob資料。在運算過程中,沒有改變資料的大小,即輸入和輸出的資料大小是相等的。輸入 n c h w 輸出 n c h w 常用的啟用函式有sigmoid,...
caffe之(三)啟用函式層
在caffe中,網路的結構由prototxt檔案中給出,由一些列的layer 層 組成,常用的層如 資料載入層 卷積操作層 pooling層 非線性變換層 內積運算層 歸一化層 損失計算層等 本篇主要介紹啟用函式層 下面首先給出啟用函式層的結構設定的乙個小例子 定義在.prototxt檔案中 lay...