tdnn模型示例
tdnn拼幀:
第8層:(0,3)
第7層:(-9,0)
第6層:(0,3)
第5層:(-6,0)
第4層:(0,3)
第3層:(-3,0)
第2層:(0,3)
第1層:(-3,0)
輸出依賴
要在輸出層處輸出第1幀,各層需要的幀的時間索引如下:
第8層:1,4
第7層:-9,-6,1,4
第6層:-9,-6,1,4,7
第5層:-15,-12,-9,-6,-3,1,4,7
第4層:-15,-12,-9,-6,-3,1,4,7,10
第3層:-18,-15,-12,-9,-6,-3,1,4,7,10
第2層:-18,-15,-12,-9,-6,-3,1,4,7,10,13
第1層:-21,-18,-15,-12,-9,-6,-3,1,4,7,10,13
要在輸出層處輸出第2幀,各層需要的幀的時間索引如下:
第9層:2,5
...第2層:-20,-17,-14,-11,-8,-5,-2,2,5,8,11,14
要在輸出層處輸出第3幀,各層需要的幀的時間索引如下:
第9層:3,6
...第2層:-19,-16,-13,-10,-7,-4,-1,3,6,9,11,15
要在輸出層處輸出第4幀,各層需要的幀的時間索引如下:
第9層:4,7
...第2層:-18,-15,-12,-9,-6,-3,1,4,7,10,13,16
tdnn的拼幀索引
第一層不需要受到此限制
第9層:(0,3)
第8層:(-9,0)
第7層:(0,3)
第6層:(-6,0)
第5層:(0,3)
第4層:(-3,0)
第3層:(0,3)
第2層:(-3,0)
第1層:(-2,-1,0,1,2)
lstm的延時
與tdnn類似,單向lstm依賴於歷史資訊,雙向lstm(blstm)依賴於歷史資訊與未來資訊
資訊包括記憶(cell)與輸出(recurrent)
預設情況下,對於長度為t
幀的語句,在t
時刻:lstm依賴於
t時刻上一層的輸出
blstm依賴於
t時刻上一層的輸出
那麼,在t-1時刻:
lstm依賴於
t-1時刻上一層的輸出
blstm依賴於
t-1時刻上一層的輸出
依此類推:
lstm將依賴於所有的歷史資訊
blstm將依賴於所有的資訊(歷史資訊+未來資訊)
也就是說,所有幀(t
幀)都需要進行lstm計算
人總是要拼一拼的
不想給自己寫太多的打雞血的文章,但是,倦怠總是會有的,於是,今天在自習室寫了這些 你若是想成為別人成為不了的人,那你就必須付出比人付出不了的努力 你若是想成就別人成就不了的事業,那你就必須付出別人付出不起的汗水。若這樣的時候,你想到了人生的意義,想起了未來等待我們的死亡。那麼,誰不一樣呢?快樂幸福地...
20歲拼體力,30歲拼專業,40歲拼人脈
常言道 10多歲比智力,20多歲比體力,30來歲拼專業,40歲拼人脈 年紀再大些要拼什麼我就不知道了,但過了60歲肯定重新拼體力,活著比什麼都重要,哈哈。說到人脈關係,現在任何人都相信它越來越重要,至少我身邊大多數朋友都把拓展人脈當成一件重要的事情來抓 包括我自己 剛好30來歲有點經驗和積累,還有體...
20歲拼體力,30歲拼專業,40歲拼人脈
常言道 10多歲比智力,20多歲比體力,30來歲拼專業,40歲拼人脈 年紀再大些要拼什麼我就不知道了,但過了60歲肯定重新拼體力,活著比什麼都重要,哈哈。說到人脈關係,現在任何人都相信它越來越重要,至少我身邊大多數朋友都把拓展人脈當成一件重要的事情來抓 包括我自己 剛好30來歲有點經驗和積累,還有體...