standfordcorenlp在python环境下的使用(中文分词、词性标注、命名实体分析、解析语法、解析语法关系)

操作环境:windows
需求:安装PyCharm、JDK1.8
第一步:
首先从stanford NLP网页下载两个包,分别是stanford-corenlp-full-2018-10-05.zip和中文处理包stanford-chinese-corenlp-2018-10-05-models.jar,下载后解压压缩包然后将stanford-chinese-corenlp-2018-10-05-models.jar放入压缩包中。
下载界面
standfordcorenlp在python环境下的使用(中文分词、词性标注、命名实体分析、解析语法、解析语法关系)
第二步:
安装Python的stanfordnlp库,在命令提示符中切换到安装Python的路径的Scripts文件夹下执行命令pip install stanforcorednlp如图:
standfordcorenlp在python环境下的使用(中文分词、词性标注、命名实体分析、解析语法、解析语法关系)
安装完成后就可以开始使用了。

#   coding=utf-8

from stanfordcorenlp import StanfordCoreNLP

nlp = StanfordCoreNLP(r'E:\nlp\lib\stanford-corenlp-full-2018-10-05', lang="zh")

sentence = '清华大学位于北京。'
print("中文分词:")
print(nlp.word_tokenize(sentence))  # 中文分词
print("词性标注:")
print(nlp.pos_tag(sentence))  # 词性标注
print("命名实体分析:")
print(nlp.ner(sentence))  # 命名实体分析
print("解析语法:")
print(nlp.parse(sentence))  # 解析语法
print("解析语法关系:")
print(nlp.dependency_parse(sentence))  # 解析语法关系
nlp.close()

运行有点慢,同时运行过程中非常占用内存和cpu,不要着急稍等一会。
结果如下图:
standfordcorenlp在python环境下的使用(中文分词、词性标注、命名实体分析、解析语法、解析语法关系)