兩種方式:
一、通過keras封裝的網路層中的activation引數指定:
例如,下面的卷積層中的指定的啟用函式為relu函式:
from keras.model import sequential
from keras.layers import conv2d
from keras.layers import maxpooling2d
model = sequential()
model.add(conv2d(
kernel_size=(9,9),
activation="relu",
filters=48,
strides=(4,4),
input_shape = input_shape))
model.add(maxpooling2d((3,3), strides=(2,2), padding='same'))
model.add(conv2d(
strides=(1,1),
kernel_size=(3,3),
activation="relu",
filters=128))
model.add(conv2d(
strides=(1,1),
kernel_size=(3,3),
activation="relu",
filters=128))
model.add(maxpooling2d((3,3), strides=(2,2), padding='same'))
二、通過activation啟用層單獨封裝:
from keras.layers import activation, dense
model.add(dense(64))
model.add(activation('sigmoid'))
等價於:
model.add(dense(64, activation='sigmoid'))
Keras啟用函式Activations
啟用函式可以通過設定單獨的啟用層實現,也可以在構造層物件時通過傳遞activation引數實現。model.add dense 64 activation tanh 預定義啟用函式 softmax 對輸入資料的最後一維進行softmax,輸入資料應形如 nb samples,nb timesteps...
keras 9 啟用函式 Activations
softmax elu 指數線性單元 selu 可伸縮的指數線性單元 softplus log exp x 1 softsign x abs x 1 relu cs231n推薦 tanh sigmoid hard sigmoid linear 線性啟用函式,即不做任何改變 對於theano tens...
啟用函式的使用
簡單的二分類問題 1.網路結構的設計 2.分類結果 輸出為 y w 1x1 w2x2 by w 1x 1 w 2x 2 b y w1 x 1 w 2 x2 b 此為 x1x1 x1和 x2x2 x2的線性組合,線性組合只能是直線,這樣就擬合處一條直線,將圓形和正方形進行分類,分類後的結果如下圖 複雜...