卷積-池化-卷積-gru
from keras.models import sequential
from keras import layers
from keras.optimizers import rmsprop
model = sequential()
model.add(layers.conv1d(32,5,activation='relu',input_shape=(none,float_data.shape[-1])))
model.add(layers.maxpooling1d(3))
model.add(layers.conv1d(32,5,activation='relu')
model.add(layers.gru(32,dropout=0.1,recurrent_dropout=0.5)
model.add(layers.dense(1))
# 一維卷積和一維池化
# 精度不高,僅供和二維卷積對比
from keras.models import sequential
from keras import layers
from keras.optimizers import rmsprop
model = sequential()
# embeding後直接跟rnn和一維卷積
model.add(layers.embedding(max_features,128,input_length=max_len))
# 二維卷積核一般3*3=9個特徵向量
# 一維卷積核一般直接取7或9
model.add(layers.conv1d(32,7,activation='relu'))
model.add(layers.maxpooling1d(5))
model.add(layers.conv1d(32,7,activation='relu'))
# 全域性池化層,將三維輸出轉換為二維輸出,後接全連線層
# 也可以用flatten代替全域性池化層
# model.add(layers.flatten())
model.add(layers.globalmaxpooling1d())
迴圈神經網路 GRU
這裡我們首先來看一下gru是如何將lstm的三個門簡化成兩個門的結構的 這裡的r rr門 r門這裡同樣是乙個啟用函式 控制的是上乙個時間戳的狀態st 1s st 1 對我們的當前時間戳狀態s ts t st 的乙個影響,r的取值範圍依舊是在0到1之間,也就是說,當你的r門全部關閉 r 0 的時候,就...
迴圈神經網路 GRU
gru是由cho在2014年提出的,全稱是gated recurrent unit。它與lstm最大的不同在於gru將遺忘門和輸入門合成了乙個 更新門 同時網路不再額外給出記憶狀態c tc t ct 而是將輸出結果h th t ht 作為記憶狀態不斷向後迴圈傳遞,網路的輸入和輸出都變得特別簡單。具體...
卷積神經網路 池化層
池化層的作用 增加平移不變性 降取樣,即降維 增大感受野 平移的不變性是指當我們對輸入進行少量平移時,經過池化函式後的大多數輸出並不會發生改變。區域性平移不變性是乙個有用的性質,尤其是當我們關心某個特徵是否出現,而不關心它出現的具體位置時。保留主要特徵的同時減少引數和計算量,防止過擬合,提高模型泛化...