來自:
簡單講解
文字相似度計算在資訊檢索、資料探勘、機器翻譯、文件複製檢測等領域有著廣泛的應用。
比如**控制,我們假設你開發了乙個微博**,並且已經把世界上罵人的句子都已經收錄進了資料庫,那麼當乙個使用者發微博時會先跟罵人句子的資料庫進行比較,如果符合裡面的句子就不讓使用者發出。
通常情況下,很多任務程師就會想到用like或者where的sql語法去查詢。可是當情況更為複雜呢?
資料庫存放了「你是個壞人」,使用者要發「小明是個壞人」,這時應該怎麼辦呢?
最簡單的辦法就是通過判斷文字的相似程度來決定使用者發的內容是否是罵人的。
本章節就幾種簡單的判斷文字相似性的演算法來講解,幫助大家更好的理解。
相關演算法
1、余弦相似性
余弦(余弦函式),三角函式的一種。在rt△abc(直角三角形)中,∠c=90°,角a的余弦是它的鄰邊比三角形的斜邊,即cosa=b/c,也可寫為cosa=ac/ab。余弦函式:f(x)=cosx(x∈r)
這是乙個非常常見的演算法,相信大家都應該學過餘弦定理了,簡單來說這個演算法就是通過計算兩個向量的夾角余弦值來評估他們的相似度。
對於二維空間,根據向量點積公式,顯然可以得知(ps,這個公式不是這個演算法的重點,可以不用強記):
假設向量a、b的座標分別為(x1,y1)、(x2,y2) 。則:
設向量 a = (a1,a2,...,an),b = (b1,b2,...,bn) 。推廣到多維,數學家已經幫我們證明了,所以你只要記住下面的公式:
簡單來說可以寫成下面的式子:
(式子中的x和y是指詞頻)
比如我們要判斷兩句話
a=你是個壞人 b=小明是個壞人
① 先進行分詞
a=你 / 是 / 個 / 壞人 b=小明 / 是 / 個 / 壞人
② 列出所有的詞
③計算詞頻(出現次數)
a= (每個數字對應上面的字) b=
然後把詞頻帶入公式
余弦值越接近1,就表明夾角越接近0度,也就是兩個向量越相似,這就叫"余弦相似性"。
簡單來說上面計算出的值代表兩個句子大概六成相似,越接近1就越相似。
2、簡單共有詞
通過計算兩篇文件共有的詞的總字元數除以最長文件字元數來評估他們的相似度。
假設有a、b兩句話,先取出這兩句話的共同都有的詞的字數然後看哪句話更長就除以哪句話的字數。
同樣是a、b兩句話,共有詞的字元長度為4,最長句子長度為6,那麼4/6,≈0.667。
3、編輯距離
編輯距離(edit distance),又稱levenshtein距離,是指兩個字串之間,由乙個轉成另乙個所需的最少編輯操作次數。許可的編輯操作包括將乙個字元替換成另乙個字元,插入乙個字元,刪除乙個字元。一般來說,編輯距離越小,兩個串的相似度越大。由俄羅斯科學家vladimir levenshtein(找不到他**233333)在2023年提出這個概念。
例如將「babay是個好人」轉成「baby是個帥哥」,編輯舉例就是2~~(好人變帥哥只要2就好...)~~: baby是個帥人(好→帥) baby是個帥哥(人→哥)
然後拿編輯距離去除以兩者之間的最大長度,2/6≈0.333,意味著只要變動這麼多就可以從a變成b,所以不用變動的字元便代表了相似度,1-0.333=0.667。
4、simhash + 漢明距離
simhash是谷歌發明的演算法,據說很nb,可以將乙個文件轉換成64位的位元組,然後我們可以通過判斷兩個位元組的漢明距離就知道是否相似了。
漢明距離是以理查德·衛斯里·漢明的名字命名的。在資訊理論中,兩個等長字串之間的漢明距離是兩個字串對應位置的不同字元的個數。換句話說,它就是將乙個字串變換成另外乙個字串所需要替換的字元個數。例如:
1011101 與 1001001 之間的漢明距離是 2。
"toned" 與 "roses" 之間的漢明距離是 3。
首先我們來計算simhash:
② 用hash演算法將word轉為固定長度的二進位制值的字串[hash(word),weight]。(舉例 [100101,4])
③ word的hash從左到右與權重相乘,如果為1則乘以1 ,如果是0則曾以-1。(舉例4,-4,-4,4,-4,4)
④ 接著計算下個數,直到將所有分詞得出的詞計算完,然後將每個詞第三步得出的陣列中的每乙個值相加。(舉例美國和51區,[4,-4,-4,4,-4,4]和[5 -5 5 -5 5 5]得到[9 -9 1 -1 1 9])
⑤ 對第四步得到的陣列中每乙個值進行判斷,如果>0記為1,如果<0記為0。(舉例[101011])
第四步得出的就是這個文件的simhash。
這樣我們就能將兩個不同長度的文件轉換為同樣長度的simhash值,so,我們現在可以計算第乙個文件的值和第二個文件的漢明距離(一般<3就是相似度高的)。
simhash本質上是區域性敏感性的hash(如果是兩個相似的句子,那麼只會有部分不同),和md5之類的不一樣。 正因為它的區域性敏感性,所以我們可以使用海明距離來衡量simhash值的相似度。
5、jaccard相似性係數
jaccard 係數,又叫jaccard相似性係數,用來比較樣本集中的相似性和分散性的乙個概率。jaccard係數等於樣本集交集與樣本集合集的比值,即j = |a∩b| ÷ |a∪b|。
說白了就是交集除以並集,兩個文件的共同都有的詞除以兩個文件所有的詞。
6、歐幾里得距離
歐幾里得距離是用得非常廣的公式,設a(x1, y1),b(x2, y2)是平面上任意兩點那麼兩點間的距離距離(a,b)=平方根((x1-x2...)^2+(y1-y2....)^2)
我們可以拿兩個文件所有的詞(不重複)在a文件的詞頻作為x,在b文件的作為y進行計算。
同樣拿a=你是個壞人、b=小明是個壞人 這兩句話作為例子,詞頻分別為a= 、b=。
那麼距離為根號2,≈ 1.414(餘3位)
然後可以通過1 ÷ (1 + 歐幾里德距離)得到相似度。
7、曼哈頓距離
曼哈頓距離(manhattan distance)是由十九世紀的赫爾曼·閔可夫斯基所創詞彙,是種使用在幾何度量空間的幾何學用語,用以標明兩個點上在標準座標系上的絕對軸距總和。
跟歐幾里德距離有點像,簡單來說就是d(i,j)=|x1-x2...|+|y1-y2...|,同理xn和yn分別代表兩個文件所有的詞(不重複)在a和b的詞頻。
然後可以通過1 ÷ (1 + 曼哈頓距離)得到相似度。
其它公式生成工具:
計算文字相似度
計算文字相似度 推薦2收藏 簡單講解 文字相似度計算在資訊檢索 資料探勘 機器翻譯 文件複製檢測等領域有著廣泛的應用。比如 控制,我們假設你開發了乙個微博 並且已經把世界上罵人的句子都已經收錄進了資料庫,那麼當乙個使用者發微博時會先跟罵人句子的資料庫進行比較,如果符合裡面的句子就不讓使用者發出。通常...
文字相似度計算
一 簡介 文字相似度是進行文字聚類的基礎,和傳統的結構化數值資料的聚類方法相似,文字聚類是通過計算文字之間的 距離 來表示文字之間的相似度,並產生聚類。文字相似度的常用計算反法有餘弦定理。但是文字資料和普通的資料不同,它是一種半結構化的資料,在進行聚類之前必須要對文字資料來源進行處理,如分詞 向量化...
計算文字相似度
不僅要考慮語義,還要考慮順序。計算距離的方式 余弦,歐式 1.向量表示 1 distributed representation 最大的貢獻就是讓相關或者相似的詞,在距離上更接近了。2 word2vec模型 通過神經網路機器學習演算法來訓練n gram 語言模型,並在訓練過程中求出word所對應的v...