矩陣運算和文字處理中兩個分類的問題
文字和詞彙的矩陣
在nlp中,最常見的兩個分類是,將文字按主題歸類 和 將詞彙表中的字詞按意思歸類。——都可以用矩陣計算圓滿解決。
分類的本質是 聚類問題。
分類的關鍵是計算相關性。我們首先對兩個文字計算出它們的內容詞,或者說實詞的向量,然後求這兩個向量的夾角。當這兩個向量夾角為零時,新聞就相關;當它們垂直或者說正交時,新聞則無關。當然,夾角的余弦等同於向量的內積。從理論上講,這種演算法非常好。但是計算時間特別長。通常,我們要處理的文章的數量都很大,至少在百萬篇以上,二次回標有非常長,比如說有五十萬個詞(包括人名地名產品名稱等等)。如果想通過對一百萬篇文章兩篇兩篇地成對比較,來找出所有共同主題的文章,就要比較五千億對文章。現在的計算機一秒鐘最多可以比較一千對文章,完成這一百萬篇文章相關性比較就需要十五年時間。注意,要真正完成文章的分類還要反覆重複上述計算。
希望可以一次性的把所有新聞相關性計算出來——利用矩陣運算中的奇異值分解(svd)。
在文字分類中,另一種辦法是利用矩陣運算中的奇異值分解(singular value decomposition,簡稱 svd)。現在讓我們來看看奇異值分解是怎麼回事。首先,我們可以用乙個大矩陣a來描述這一百萬篇文章和五十萬詞的關聯性。這個矩陣中,每一行對應一篇文章,每一列對應乙個詞。
在上面的圖中,m=1,000,000,n=500,000。第 i 行,第 j 列的元素,是字典中第 j 個詞在第 i 篇文章中出現的加權詞頻(比如,tf/idf)。讀者可能已經注意到了,這個矩陣非常大,有一百萬乘以五十萬,即五千億個元素。
奇異值分解就是把上面這樣乙個大矩陣,分解成三個小矩陣相乘,如下圖所示。比如把上面的例子中的矩陣分解成乙個一百萬乘以一百的矩陣x,乙個一百乘以一百的矩陣b,和乙個一百乘以五十萬的矩陣y。這三個矩陣的元素總數加起來也不過1.5億,僅僅是原來的三千分之一。相應的儲存量和計算量都會小三個數量級以上。
三個矩陣有非常清楚的物理含義。
第乙個矩陣x中每個非零元素表示這類詞中每個詞的重要性(或者說相關性),數值越大越相關。多少個詞就有多少行。多少個詞類就多少列。(詞和語義類)
x=詞 詞類—————>
因此,我們只要對關聯矩陣a進行一次奇異值分解,w 我們就可以同時完成了近義詞分類和文章的分類。(同時得到每類文章和每類詞的相關性)。
現在剩下的唯一問題,就是如何用計算機進行奇異值分解。這時,線性代數中的許多概念,比如矩陣的特徵值等等,以及數值分析的各種演算法就統統用上了。在很長時間內,奇異值分解都無法並行處理。(雖然 google 早就有了mapreduce 等平行計算的工具,但是由於奇異值分解很難拆成不相關子運算,即使在 google 內部以前也無法利用平行計算的優勢來分解矩陣。)最近,google 中國的張智威博士和幾個中國的工程師及實習生已經實現了奇異值分解的並行演算法,我認為這是 google 中國對世界的乙個貢獻。
a_mn=x_mm*b_mn*y_nn
m對應文字數量,n對應詞典大小。
SVD分解的應用 矩陣運算和文字處理中的分類問題
在自然語言處理中,最常見的兩類的分 類問題分別是,將文字按主題歸類 比如將所有介紹亞運會的新聞歸到體育類 和將詞彙表中的字詞按意思歸類 比如將各種體育運動的名稱個歸成一類 這兩種 分類問題都可用通過矩陣運算來圓滿地 同時解決。為了說明如何用矩陣這個工具類解決這兩個問題的,讓我們先來來回顧一下我們在餘...
Linux中vim的文字處理函式
phony all srcs player.c lcd.c usb.c media.c hello.h main.txt c替換為.o檔案.strip strint 去掉字串中開頭和結尾的空格,並且合併中間多餘的空格為乙個空格.objs subst c,o,strip srcs c替換為.d檔案.d...
shell中的文字處理之grep,sed,awk
1 grep文字過濾命令 grep中的正規表示式 grep root passwd 過濾以root開頭的行 grep root passwd 過濾以root結尾的行 grep i root passwd 不區分大小寫,過濾以root開頭的行 grep e root root passwd 過濾以ro...