安裝:pip install stanfordcorenlp
國內源安裝:pip install stanfordcorenlp -i
from stanfordcorenlp import stanfordcorenlp
使用stanfordcorenlp進行句法成分分析
對中文進行句子成分分析
zh_model = stanfordcorenlp(r'stanford-corenlp-full-2018-02-27'
, lang=
'zh'
)s_zh =
'我愛自然語言處理技術!'
con_zh = zh_model.parse(s_zh)
print
(con_zh)
(root
(ip(ip
(np (nn 我愛))
(advp (ad 自然))
(np (nn 語言))
(vp (vv 處理)
(np (nn 技術))))
(pu !)))
對英文進行句子成分分析eng_model = stanfordcorenlp(r'stanford-corenlp-full-2018-02-27'
)s_eng =
'i love natural language processing technology!'
con_eng = eng_model.parse(s_eng)
print
(con_eng)
(root
(s(np (prp i))
(vp (vbp love)
(np (jj natural) (nn language) (nn processing) (nn technology)))
(. !)))
自然語言處理基礎技術之語義角色標註
今天是總結nlp基礎技術的最後一篇,後面開始工具實戰篇,我覺得實踐對新手小白入門是相當有幫助的 語義角色標註定義 以下以基於成分句法樹的語義角色標註為例,任務的解決思路是以句法樹的成分為單元,判斷其是否擔當給定謂詞的語義角色 conll會議2008 2009 年則對依存分析和語義角色標註聯合任務進行...
自然語言處理基礎技術工具篇之Jieba
沒想到堅持學習以及寫作總結已經超過半個月了,謝謝大家的關注 點讚 收藏 前面談了nlp的基礎技術,我始終覺得,入門學習一件事情最好的方式就是實踐,加之現在python如此好用,有越來越多的不錯nlp的python庫,所以接下來的一段時間裡,讓我們一起來感受一下這些不錯的工具。我均使用jupyter編...
自然語言處理基礎技術工具篇之spaCy
安裝 pip install spacy 國內源安裝 pip install spacy i import spacy nlp spacy.load en doc nlp u this is a sentence.1.tokenize功能for token in doc print token th...