2023年 - 神經語言模型
2023年 - 多工學習
2023年 - word嵌入
2023年 - nlp的神經網路:迴圈神經網路(recurrent neural networks)、卷積神經網路(convolutionalneural networks)和結構遞迴神經網路(recursive neural networks)
2023年 - 序列到序列模型:seq2seq屬於encoder-decoder結構的一種,這裡看看常見的encoder-decoder結構,基本思想就是利用兩個rnn,乙個rnn作為encoder,另乙個rnn作為decoder
2023年 - 注意力機制:google又提出了解決seq2seq問題的transformer模型,用全attention的結構代替了lstm,在翻譯任務上取得了更好的成績。
2023年 - 基於記憶的神經網路
2023年 - 預訓練語言模型:
bert:bert的網路架構使用的是《attention is all you need》中提出的多層transformer結構。
xlnet(2019-2020):結合ar語言模型和ae語言模型(bert)。
NLP自然語言處理
第1部分自然語言處理入門 1.1自然語言處理入門.mp4 第2部分hmm和crf 1.1crf模型簡介.mp4 1.1hmm模型介紹.mp4 1.2文字處理的基本方法 part1.mp4 2.1新聞主題分類任務 第4步 part2.mp4 第43部分rnn 1.1rnn模型小結.mp4 1.1rnn...
NLP自然語言處理
老實來講這課我一頭霧水滿腦袋問號 import numpy as np from collections import counter counttime 0 def seperate filename totalnum 0 郵件的總數 global counttime i 0 file open ...
NLP自然語言處理相關
近期需要學習一些命名實體識別的知識,記錄一下,以便以後複習 個人理解 目前的理解是,命名實體識別 ner 是自然語言處理 nlp 的乙個階段,可應用於機器翻譯 摘要形成 資訊檢索等等,個人認為,自然語言處理是一門很複雜的跨學科技術,其難點在於人類是富有思維的,人的語言寄託人的思想,因此很難準確處理。...