在搭建神經網路結構時,我們要向網路中新增一些網路層,下面列舉出來常用的網路層及其相關用法。
常用層對應於core模組,core內部定義了一系列常用的網路層,包括全連線、啟用層等。
1.dense層
dense層:全連線層。
keras.layers.core.dense(output_dim, init='glorot_uniform', activation='linear', weights=none, w_regularizer=none, b_regularizer=none, activity_regularizer=none, w_constraint=none, b_constraint=none, bias=true, input_dim=none)
2.activation層
啟用層對乙個層的輸出施加啟用函式。
keras.layers.core.activation(activation)
3.dropout層
為輸入資料施加dropout。dropout將在訓練過程中每次更新引數時隨機斷開一定百分比(p)的輸入神經元連線,dropout層用於防止過擬合。
keras.layers.core.dropout(p)
4.flatten層
flatten層用來將輸入「壓平」,即把多維的輸入一維化,常用在從卷積層到全連線層的過渡。flatten不影響batch的大小。
keras.layers.core.flatten()
5.reshape層
reshape層用來將輸入shape轉換為特定的shape.
keras.layers.core.reshape(target_shape)
1.convolution2d層
二維卷積層對二維輸入進行滑動窗卷積,當使用該層作為第一層時,應提供input_shape引數。例如input_shape = (3,128,128)代表128*128的彩色rgb影象。
keras.layers.convolutional.convolution2d(nb_filter, nb_row, nb_col, init='glorot_uniform', activation='linear', weights=none, border_mode='valid', subsample=(1, 1), dim_ordering='th', w_regularizer=none, b_regularizer=none, activity_regularizer=none, w_constraint=none, b_constraint=none, bias=true)
2.deconvolution2d層
該層是卷積操作的轉置(反卷積)。需要反卷積的情況通常發生在使用者想要對乙個普通卷積的結果做反方向的變換。例如,將具有該卷積層輸出shape的tensor轉換為具有該卷積層輸入shape的tensor。,同時保留與卷積層相容的連線模式。
keras.layers.convolutional.deconvolution2d(nb_filter, nb_row, nb_col, output_shape, init='glorot_uniform', activation='linear', weights=none, border_mode='valid', subsample=(1, 1), dim_ordering='tf', w_regularizer=none, b_regularizer=none, activity_regularizer=none, w_constraint=none, b_constraint=none, bias=true)
1.maxpooling2d層
為空域訊號施加最大值池化。
keras.layers.convolutional.maxpooling2d(pool_size=(2, 2), strides=none, border_mode='valid', dim_ordering='th')
strides:長為2的整數tuple,或者none,步長值。
1.batchnormalization層
該層在每個batch上將前一層的啟用值重新規範化,即使得其輸出資料的均值接近0,其標準差接近1。
keras.layers.normalization.batchnormalization(epsilon=1e-06, mode=0, axis=-1, momentum=0.9, weights=none, beta_init='zero', gamma_init='one')
Keras學習筆記2 常用函式
全連線層 詳細請看 keras 中文文件 keras是什麼?1.dense 全連線層 2.keras.layer.input 用於例項化keras張量 3.activation 啟用函式 4.dropout 正則化層 5.flatten 展平 6.reshape 調整輸入大小 7.lambda 將任...
Keras學習筆記
手冊 keras中文文件 1.張量 一階張量是向量,二階張量是矩陣。2.batch batch gradient descent,遍歷全部資料集算一次損失函式,然後算函式對各個引數的梯度,更新梯度。太慢。stochastic gradient descent,每看乙個資料就算一下損失函式,然後求梯度...
Keras學習筆記03 常用重要模組
編譯模型必選兩個引數之一 可以通過傳遞預定義目標函式名字指定目標函式,也可以傳遞乙個theano tensroflow的符號函式作為目標函式,該函式對每個資料點應該只返回乙個標量值,並以下列兩個引數為引數 真實的優化目標函式是在各個資料點得到的損失函式值之和的均值。可用的目標函式 編譯模型必選兩個引...