自然語言處理基礎技術之成分句法分析實戰

2021-09-02 10:31:20 字數 978 閱讀 3567

安裝:pip install stanfordcorenlp

國內源安裝:pip install stanfordcorenlp -i

from stanfordcorenlp import stanfordcorenlp
使用stanfordcorenlp進行句法成分分析

對中文進行句子成分分析

zh_model = stanfordcorenlp(r'stanford-corenlp-full-2018-02-27'

, lang=

'zh'

)s_zh =

'我愛自然語言處理技術!'

con_zh = zh_model.parse(s_zh)

print

(con_zh)

(root

(ip(ip

(np (nn 我愛))

(advp (ad 自然))

(np (nn 語言))

(vp (vv 處理)

(np (nn 技術))))

(pu !)))

對英文進行句子成分分析
eng_model = stanfordcorenlp(r'stanford-corenlp-full-2018-02-27'

)s_eng =

'i love natural language processing technology!'

con_eng = eng_model.parse(s_eng)

print

(con_eng)

(root

(s(np (prp i))

(vp (vbp love)

(np (jj natural) (nn language) (nn processing) (nn technology)))

(. !)))

自然語言處理基礎技術之語義角色標註

今天是總結nlp基礎技術的最後一篇,後面開始工具實戰篇,我覺得實踐對新手小白入門是相當有幫助的 語義角色標註定義 以下以基於成分句法樹的語義角色標註為例,任務的解決思路是以句法樹的成分為單元,判斷其是否擔當給定謂詞的語義角色 conll會議2008 2009 年則對依存分析和語義角色標註聯合任務進行...

自然語言處理基礎技術工具篇之Jieba

沒想到堅持學習以及寫作總結已經超過半個月了,謝謝大家的關注 點讚 收藏 前面談了nlp的基礎技術,我始終覺得,入門學習一件事情最好的方式就是實踐,加之現在python如此好用,有越來越多的不錯nlp的python庫,所以接下來的一段時間裡,讓我們一起來感受一下這些不錯的工具。我均使用jupyter編...

自然語言處理基礎技術工具篇之spaCy

安裝 pip install spacy 國內源安裝 pip install spacy i import spacy nlp spacy.load en doc nlp u this is a sentence.1.tokenize功能for token in doc print token th...