elasticsearch添加自定义分词器
之前已经成功搭建了elasticsearch
然后去模糊搜索的时候,中文会给拆分出来,因为使用的是非中文分词器。
效果如下,但是,大家都知道红牛都是平时自己喝的饮料,为啥没有涅~。那是因为没有使用中文分词器,那么我们采用中文分词器就需要安装一下插件了。不然是会报错的~
分词器的地址是https://github.com/medcl/elasticsearch-analysis-ik/releases
在这里,切记使用和es相同的版本,我的es是6.6.1,自然我也就使用6.6.1的IK了。
然后下载zip包,解压,上传到es的安装包下的plugins下面,然后重命名为ik,使用非root权限启动即可。
更改一下分词器的类型,即可查询到红牛,那么我来试试我的名字呢?
又给分割成一个个的单词了,该如何是好呢~
这个时候我们就可以使用我们自己自定义的分词器了。
我们在刚才上传的文件里面创建一个文件夹
新建一共new_word.dic文件
里面写一下自定义的分词,例如
然后引入这个分词器
vim /usr/local/elasticsearch-6.6.1/plugins/ik/config/IKAnalyzer.cfg.xml
<entry key="ext_dict">fenci/new_word.dic</entry>
重启一下,试试,
发现就可以咯。