standfordcorenlp在python环境下的使用(中文分词、词性标注、命名实体分析、解析语法、解析语法关系)
操作环境:windows
需求:安装PyCharm、JDK1.8
第一步:
首先从stanford NLP网页下载两个包,分别是stanford-corenlp-full-2018-10-05.zip和中文处理包stanford-chinese-corenlp-2018-10-05-models.jar,下载后解压压缩包然后将stanford-chinese-corenlp-2018-10-05-models.jar放入压缩包中。
下载界面
第二步:
安装Python的stanfordnlp库,在命令提示符中切换到安装Python的路径的Scripts文件夹下执行命令pip install stanforcorednlp
如图:
安装完成后就可以开始使用了。
# coding=utf-8
from stanfordcorenlp import StanfordCoreNLP
nlp = StanfordCoreNLP(r'E:\nlp\lib\stanford-corenlp-full-2018-10-05', lang="zh")
sentence = '清华大学位于北京。'
print("中文分词:")
print(nlp.word_tokenize(sentence)) # 中文分词
print("词性标注:")
print(nlp.pos_tag(sentence)) # 词性标注
print("命名实体分析:")
print(nlp.ner(sentence)) # 命名实体分析
print("解析语法:")
print(nlp.parse(sentence)) # 解析语法
print("解析语法关系:")
print(nlp.dependency_parse(sentence)) # 解析语法关系
nlp.close()
运行有点慢,同时运行过程中非常占用内存和cpu,不要着急稍等一会。
结果如下图: