下载 ik分词包 地址:http://http://pan.baidu.com/s/1c1RcnAw 1.修改 pom.xml 修改成你使用的版本,保存 解压后在工程目录内 打开命令窗口 输入 mvn -DskipTests clean package 完成后 2.部署项目 把生成的jar 放到 s ...
分类:
其他好文 时间:
2016-05-17 19:16:39
阅读次数:
318
网上试了很多种方案都不灵!
最后准于被我使出来了。记录下来,希望能帮到其他的人!
ik分词器地址:https://github.com/medcl/elasticsearch-analysis-ik
1、下载 elasticsearch-analysis-ik-1.4.1.zip
2、解压,进入目录:命令行执行:mvn compile package (确保机器上...
分类:
其他好文 时间:
2016-05-07 07:42:47
阅读次数:
220
ik git 地址 https://github.com/medcl/elasticsearch-analysis-ik readme 包含各个版本ik对应的 es 版本 下载对应的ikzip包 命令如下 https://github.com/medcl/elasticsearch-analysis ...
分类:
其他好文 时间:
2016-05-04 21:13:13
阅读次数:
166
首先,solr5.5自带的中文分词实在是太low了。 无奈。 采用ik来试试。 首先,下载ik。地址https://github.com/EugenePig/ik-analyzer-solr5 下载完成后解压 在解压目录打开命令行窗口:mvn clean install 等着完成就可以了。 至此,打 ...
分类:
其他好文 时间:
2016-05-03 23:28:24
阅读次数:
541
首先是下载elasticsearch https://www.elastic.co/downloads,解压; 然后下载了中文分析器ik,github上搜索elasticsearch-ik就能找到,https://github.com/medcl/elasticsearch-analysis-ik ... ...
分类:
其他好文 时间:
2016-05-02 00:37:57
阅读次数:
279
一、IK简介 IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开 始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化 ...
分类:
其他好文 时间:
2016-05-01 16:04:12
阅读次数:
228
对于Solr应该不需要过多介绍了,强大的功能也是都体验过了,但是solr一个较大的问题就是分词问题,特别是中英文的混合分词,处理起来非常棘手。 虽然solr自带了支持中文分词的cjk,但是其效果实在不好,所以solr要解决的一个问题就是中文分词问题,这里推荐的方案是利用ik进行分词。 ik是较早作中 ...
分类:
其他好文 时间:
2016-04-27 18:50:09
阅读次数:
151
1.右手的处理:选中武器,在关键点信息下面先通过设置关键点打一帧,然后如图选择右手 2.左手的处理:选中左手,点击白色箭头,打一个平滑关键点,然后选择武器,然后将IK混合调到1 ...
分类:
其他好文 时间:
2016-04-26 01:48:28
阅读次数:
125
IK分词器相对于mmseg4J来说词典内容更加丰富,但是没有mmseg4J灵活,后者可以自定义自己的词语库。IK分词器的配置过程和mmseg4J一样简单,其过程如下: 1.引入IKAnalyzer.jar包到solr应用程序的WEB-INF/lib/目录下 2.打开solr的home/conf目录下 ...
分类:
其他好文 时间:
2016-04-16 18:39:53
阅读次数:
124
一、搭建solr服务器1、Apache官网下载solr,本次使用4.9.1版本2、解压solr,找到example,将webapps中的war包复制到tomcat的webapps下3、运行tomcat,关闭tomcat,得到解压后的solr文件夹,删除war包4、将example\lib\ext\* ...
分类:
其他好文 时间:
2016-04-07 18:25:50
阅读次数:
146