fmm演算法的最簡單思想是使用貪心演算法向前找n個,如果這n個組成的詞在詞典**現,就ok,如果沒有出現,那麼找n-1個...然後繼續下去。假如n個詞在詞典**現,那麼從n+1位置繼續找下去,直到句子結束。
import re
def preprocess(sentence,edcode="utf-8"):
sentence = sentence.decode(edcode)
sentence=re.sub(u"[。,,!……!《》<>\"'::?\?、\|「」『';]"," ",sentence)
return sentence
def fmm(sentence,diction,result = ,maxwordlength = 4,edcode="utf-8"):
i = 0
sentence = preprocess(sentence,edcode)
length = len(sentence)
while i < length:
# find the ascii word
tempi=i
tok=sentence[i:i+1]
while re.search("[0-9a-za-z\-\+#@_\.]",tok)<>none:
i= i+1
tok=sentence[i:i+1]
if i-tempi>0:
# find chinese word
left = len(sentence[i:])
if left == 1:
"""go to 4 step over the fmm"""
"""should we add the last one? yes, if not blank"""
if sentence[i:] <> " ":
return result
m = min(left,maxwordlength)
for j in xrange(m,0,-1):
leftword = sentence[i:j+i].encode(edcode)
# print leftword.decode(edcode)
if lookup(leftword,diction):
# find the left word in dictionary
# it's the right one
i = j+i
break
elif j == 1:
"""only one word, add into result, if not blank"""
if leftword.decode(edcode) <> " ":
i = i+1
else:
continue
return result
def lookup(word,dictionary):
if dictionary.has_key(word):
return true
return false
def convertgbktoutf(sentence):
return sentence.decode('gbk').encode('utf-8')
dictions = {}
dictions["ab"] = 1
dictions["cd"] = 2
dictions["abc"] = 1
dictions["ss"] = 1
dictions[convertgbktoutf("好的")] = 1
dictions[convertgbktoutf("真的")] = 1
sentence = "asdfa好的是這樣嗎vasdiw呀真的daf dasfiw asid是嗎?"
s = fmm(convertgbktoutf(sentence),dictions)
for i in s:
print i.decode("utf-8")
test = open("test.txt","r")
for line in test:
s = fmm(covertgbktoutf(line),dictions)
for i in s:
print i.decode("utf-8")
執行結果如下:
asdfa好的是
這樣嗎vasdiw呀真的
dafdasfiw
asid是嗎
?
python 中文分詞 FMM 演算法
fmm演算法的最簡單思想是使用貪心演算法向前找n個,如果這n個組成的詞在詞典中出現,就ok,如果沒有出現,那麼找n 1個.然後繼續下去。假如n個詞在詞典中出現,那麼從n 1位置繼續找下去,知道句子結束。測試 dictions dictions ab 1 dictions cd 2 dictions ...
python實現中文分詞FMM演算法例項
fmm演算法的最簡單思想是使用貪心演算法向前找n個,如果這n個組成的詞在詞典 現,就ok,如果沒有出現,那麼找n 1個.然後繼續下去。假如n個詞在詞典 現,那麼從n 1位置繼續找下去,直到句子結束。import re def preprocess sentence,edcode utf 8 sent...
python中文分詞 結巴分詞
中文分詞是中文文字處理的乙個基礎性工作,結巴分詞利用進行中文分詞。其基本實現原理有三點 基於trie樹結構實現高效的詞圖掃瞄,生成句子中漢字所有可能成詞情況所構成的有向無環圖 dag 採用了動態規劃查詢最大概率路徑,找出基於詞頻的最大切分組合 對於未登入詞,採用了基於漢字成詞能力的hmm模型,使用了...