1詞向量
在nlp裡,最細的粒度是詞語,由詞語再組成句子,段落,文章。所以處理nlp問題時,怎麼合理的表示詞語就成了nlp領域中最先需要解決的問題。
因為語言模型的輸入詞語必須是數值化的,所以必須想到一種方式將字串形式的輸入詞語轉變成數值型。由此,人們想到了用乙個向量來表示片語。在很久以前,人們常用one-hot對片語進行編碼,這種編碼的特點是,對於用來表示每個片語的向量長度是一定的,這個長度就是對應的整個詞彙表的大小,對應每個具體的詞彙表中的詞,將該詞的對應的位置置為1,向量其他位置置為0。舉個例子,假設我們現有5個片語組成的詞彙表,詞』queen』對應的序號是2,那麼它的詞向量就是(0,1,0,0,0)。其他的詞也都是乙個長度為5的向量,對應位置是1,其餘位置為0。
one-hot code非常簡單,但是存在很大的問題,當詞彙表很大,比如數百萬個詞組成了詞彙表時,每個詞的向量都是數百萬維,會造成維度災難。並且,one-hot 編碼的向量會過於稀疏,這樣的稀疏向量表達乙個詞效率並不高。
而dristributed representation(通常叫做詞向量)可以很好的解決one-hot code的問題,它是通過訓練,將每個詞都對映到乙個較短的詞向量上(這樣就解決了每個詞向量的維度過大問題),所有的詞向量構成了詞彙表的每個詞。並且更重要的是,dristributed representation表示的較短詞向量還具有衡量不同詞的相似性的作用。比如『忐』,『忑』兩個字如果作為兩個詞,那麼在dristributed representation表示下,這兩個詞的向量應該會非常相似。不僅如此,dristributed representation表示的詞向量還能表示不同片語間組合的關係,比如假設現在由訓練好的詞向量,現在拿出king,queen,man,woman四個詞的詞向量,則:
2.dnn訓練詞向量
詞向量怎麼得到呢,這裡得先說語言模型:
f(x)=y
在nlp中,我們把x看作是乙個句子裡的乙個詞,y是這個詞的上下文。這裡的f就是語言模型,通過它判斷(x,y)這個樣本,是否符合自然語言的邏輯法則。直白的說,語言模型判斷樣本(x,y)是不是人話。
而詞向量正是從這個訓練好的語言模型中的副產物模型引數(也就是神經網路的權重)得來的。這些引數是作為輸入x的某種向量化表示,這個向量就叫做詞向量。
注意我們訓練詞向量的邏輯,我們是為了得到乙個語言模型的副產物-詞向量,去訓練這個模型。所以我們的目的不是關注在怎麼優化該模型,而是為了獲取該模型的引數構造詞向量。
在word2vec出現之前,已經有用神經網路dnn來訓練出詞向量了。一般採用三層神經網路結構,分為輸入層,隱藏層,和輸出層(softmax層)。
該模型中v代表詞彙表的大小,n代表隱藏層神經元個數(即想要的詞向量維度)。輸入是某個詞,一般用one-hot表示該詞(長度為詞彙表長度),隱藏層有n個神經元,代表我們想要的詞向量的維度,輸入層與隱藏層全連線。輸出層的神經元個數和輸入相同,隱藏層再到輸出層時最後需要計算每個位置的概率,使用softmax計算,每個位置代表不同的單詞。該模型中我們想要的就是經過訓練以後,輸入層到隱藏層的權重作為詞向量。
假設詞彙表有10000個,詞向量維度設定為300。
輸入層:
為詞彙表中某乙個詞,採用one-hot編碼 長度為1x10000
隱藏層:
從輸入層到隱藏層的權重矩陣w_v*n就是10000行300列的矩陣,其中每一行就代表乙個詞向量。這樣詞彙表中所有的詞都會從10000維的one-hot code轉變成為300維的詞向量。
輸出層:
經過神經網路隱層的計算,這個輸入的詞就會變為1x300的向量,再被輸入到輸出層。輸出層就是乙個sotfmax回歸分類器。它的每個結點將會輸出乙個0-1的概率,所有結點的值之和為1,我們就會取最大概率位置檢測是否為輸入樣本x對應的y。
在此補充一下,有沒有考慮過乙個問題,採用one-hot編碼時,輸入維度是10000,如果我們將1x10000 向量與10000x300的矩陣相乘,它會消耗大量的計算資源。
我們發現,one-hot編碼時,由於只有乙個位置是1,將該向量與隱藏層權重矩陣相乘會發現,one-hot編碼向量中對應1的index,詞向量中這個下標對應的一行詞向量正式輸出結果。所以,在真正的從輸入到隱藏層的計算中,並不會真正的進行矩陣相乘計算,而是通過one-hot向量1的index取直接查詢隱藏層的權重矩陣對應的行,這樣極大的簡化了計算。
3.cbow與skip-gram模型:
該模型更一般情況是使用cbow(continuous bag-of-words)或skip-gram兩種模型來定義資料的輸入和輸出。cbow的訓練輸入的是某乙個特徵詞的上下文相關的詞對應的詞向量,輸出是這個特定詞的詞向量。而skip-gram剛好相反,輸入乙個特徵詞,輸出是這個特徵詞。上下文相關的詞。
這裡我們以cbow模型為例
假設我們有一句話,people make progress every day。輸入的是4個詞向量,』people』 , 『make『 , 『every』 , 『day』, 輸出是詞彙表中所有詞的softmax概率,我們的目標是期望progress詞對應的softmax概率最大。
開始時輸入層到隱藏層的權重矩陣和隱藏層到輸出層的權重矩陣隨機初始化,然後one-hot編碼四個輸入的詞向量』people』 『make』 『every』 『day』,並通過各自向量1的位置查詢輸入到隱藏層的權重矩陣行數,找尋其對應的詞向量。將4個詞向量與隱藏層到輸出層的權重相乘通過啟用函式啟用後再求平均,最後進行softmax計算輸出的每個位置的概率。再通過dnn反向傳播演算法,我們就可以更新dnn的隱藏層的權重引數,也就得到了更新後詞向量。通過不斷的訓練,我們得到的模型引數就會越來越準確,詞向量也會變得越來越好。
通過這樣的訓練,為什麼詞向量會具有衡量不同詞語義相似性的功能呢?
以cbow模型為例,這裡我們可以看到,通過one-hot編碼的輸入樣本,每次只會在隱藏層中輸出與它對應的權重矩陣的行。也就是說在本次訓練中,隱藏層只會呼叫與輸入樣本相關的某一行的權重引數,然後反向傳播後每次都是區域性更新隱藏層的權重矩陣。
根據語言學,同義詞的上下文很相似,這樣在訓練模型中,相似輸入值都是對應相似的輸出值,每次就會更偏向於區域性更新對應這些詞的詞向量的引數,那麼久而久之意思有關聯且相近的詞就會在詞向量上很接近。模型的輸出只是每個位置一一對應了詞向量,本身沒有太大的意義。我的理解訓練詞向量的模型就像在做聚類一樣,每次把上下文的詞與中心詞對應的詞向量通過訓練關聯在一起並彼此影響,這樣意思相近的詞對應的詞向量也會越來越像近。
當然現在我們更普遍的是使用word2vec這樣的模型來訓練詞向量,它具有更高的訓練效率,本次就寫到使用dnn訓練詞向量,下篇文章會講解word2vec相對於dnn訓練詞向量存在的優點,以及word2vec訓練詞向量的原理,歡迎持續關注。
DNN模型訓練詞向量原理
1詞向量 在nlp裡,最細的粒度是詞語,由詞語再組成句子,段落,文章。所以處理nlp問題時,怎麼合理的表示詞語就成了nlp領域中最先需要解決的問題。因為語言模型的輸入詞語必須是數值化的,所以必須想到一種方式將字串形式的輸入詞語轉變成數值型。由此,人們想到了用乙個向量來表示片語。在很久以前,人們常用o...
DNN模型訓練詞向量原理
1 詞向量 在nlp裡,最細的粒度是詞語,由詞語再組成句子,段落,文章。所以處理nlp問題時,怎麼合理的表示詞語就成了nlp領域中最先需要解決的問題。因為語言模型的輸入詞語必須是數值化的,所以必須想到一種方式將字串形式的輸入詞語轉變成數值型。由此,人們想到了用乙個向量來表示片語。在很久以前,人們常用...
詞向量訓練總結
nlp中的詞向量對比 word2vec glove fasttext elmo gpt bert 使用pytorch實現了textcnn,textrnn,fasttext,textrcnn,bilstm attention,dpcnn,transformer。github chinese text ...