keras函式式模型介面是使用者定義多輸出模型,非迴圈有向模型或具有共享層的模型等複雜模型的途徑。
需要多個輸出,應該選擇函式式模型。
輸入是張量,輸出也是乙個框架就是乙個模型,通過model定義。
from keras.layers import input,dense
from keras.models import model
inputs = input(shape=(784,))
x = dense(64,activation='relu')(inputs)
x = dense(64,activation='relu')(x)
predictions = dense(10,activation='softmax')(x)
model = model(inputs = inputs,outputs = predictions)
model.compile(optimizer='rmsprop',loss='categorical_crossentropy',
metrics=['accuracy'])
model.fit(data,labels)
利用函式式模型的介面,我們可以很容易重用已經訓練好的模型,可以把模型當作乙個層一樣,通過tensor進行呼叫。呼叫
主要輸入接收新聞本身,即乙個整數的序列。這些整數字於1-100000之間,這個序列有100個單詞。
keras搬磚系列 正則項
正則項在優化的過程中層的引數或者層的啟用值新增懲罰項,這些懲罰項將與損失函式一起作為網路的最終優化目標。懲罰項是對層進行懲罰,目前懲罰項的介面與層有關。主要由 kernel regularizer 施加在權重上的正則項,為keras.regularizer.regularizer物件 bias re...
keras搬磚系列 正則化
1,正則化簡介 以邏輯回歸來對正則化進行介紹 邏輯回歸原來的代價函式為 minw,b j w,b minw,b1m mi 1 l y i y i 其中 w r nx,b r加入正則化為 j w,b 1m mi 1 l y i y i 2 m w 22 其中 w 2 nx j 1 wtw 上述式子為l...
keras搬磚系列 調參經驗
1,觀察 loss勝於觀察準確率,loss設計要比較合理,對比訓練集和驗證集的 loss 2,relu可以很好的防止梯度瀰散的問題,當然最後一層啟用函式盡量別用 relu,如果分類則用 softmax 3,batchnorm 可以大大加快訓練速度和模型的效能 4,dropout防止過擬合,可以直接設...