标签:没有 github size == encoding value single sea custom
前面已经对”IK中文分词器“有了简单的了解:
但是可以发现不是对所有的词都能很好的区分,比如:
逼格
这个词就没有分出来。
实际上IK分词器
也是根据一些词库来进行分词的,我们可以丰富这个词库。 IK分词器(IK Analysis for Elasticsearch)
给了我们一个基本的配置:
https://github.com/medcl/elasticsearch-analysis-ik
修改我们es实例中ik插件的配置:
cd elasticsearch-5.3.0/plugins/ik/config/
main.dic
是住词库,stopword
是停用词库(把一些错误的分词加入进来,之后不会再被分词了);custom
目录中是我们的自定义词库。
这些词库都是本地词库。可以参考配置文档来设置。
官方文档:
https://github.com/medcl/elasticsearch-analysis-ik
我们来配置一下:
#进入es实例找到ik插件的配置文件
elasticsearch-5.3.0/plugins/ik/config
#编辑配置文件
vi IKAnalyzer.cfg.xml
内容:
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict">custom/mydict.dic;custom/single_word_low_freq.dic</entry>
<!--用户可以在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords">custom/ext_stopword.dic</entry>
<!--用户可以在这里配置远程扩展字典 -->
<entry key="remote_ext_dict">http://10.211.55.13/api/DictApi/GetDictionary</entry>
<!--用户可以在这里配置远程扩展停止词字典-->
<!-- <entry key="remote_ext_stopwords">words_location</entry> -->
</properties>
/api/DictApi/GetDictionary:
ElasticSearch速学 - IK中文分词器远程字典设置
标签:没有 github size == encoding value single sea custom
原文地址:http://www.cnblogs.com/a-du/p/7600474.html