在这里一下讲解着三个的安装和配置, 是因为solr需要使用tomcat和IK分词器, 这里会通过图文教程的形式来详解它们的安装和使用.注: 本文属于原创文章, 如若转载,请注明出处, 谢谢.关于设置IK分词器的文章 IK分词器: http://www.cnblogs.com/wang-meng/p/ ...
分类:
系统相关 时间:
2016-08-28 13:48:07
阅读次数:
272
在上一篇[Linux] linux下安装配置 zookeeper/redis/solr/tomcat/IK分词器 详细实例. 我们已经将redis所需tar包拷贝到了linux下的root 根目录下, 接着我们只需要解压就可以了. 先将Redis的tar包拷贝到Linux下的根目录然后解压到redi ...
分类:
系统相关 时间:
2016-08-28 09:52:48
阅读次数:
241
1.schema.xml 文件 field域相当于Java当中的字段名dynamicField(通配符) copyField(多值,集合) uniquekey(独立主键) field(定义域) fieldtype 域类型,当中的子标签 analyzer:指定分析器,type:index,query指 ...
分类:
其他好文 时间:
2016-08-27 11:11:49
阅读次数:
168
上一篇是基于内存存储的,这次的例子是基于本地存储索引库。 上一次的代码稍微修改,代码如下: //创建词法分析器 Analyzer analyzer = new StandardAnalyzer(); //索引库路径 Path path = new File("D:\\123").toPath(); ...
分类:
其他好文 时间:
2016-08-27 00:22:06
阅读次数:
178
一,安装 Eclipse Memory Analyzer 在Memory Analyzer的官网找到 update site的地址: 然后:在Eclipse界面 >Help >Install New Software >Add >Add Reposity ,并在 location 中输入:Updat ...
分类:
编程语言 时间:
2016-08-23 20:33:43
阅读次数:
281
1.分词 全文检索必须要分词,所谓分词就是把一句话切分成一个个单独的词。分词有很多算法,比如自然分词、n-gram分词、字典分词等等。对中文来说没有自然分隔符,一般采用字典分词,再加上对人名、地名的特殊处理,提高分词的准确性。 我们使用ik分词组件,ik有两种分词策略:smart策略、max wor ...
分类:
其他好文 时间:
2016-08-18 11:13:13
阅读次数:
312
1.添加索引和类型,同时设定edgengram分词和charsplit分词 curl -XPUT 'http://127.0.0.1:9200/userindex/' -d '{ "settings": { "index": { "analysis": { "analyzer": { "charsp... ...
分类:
其他好文 时间:
2016-08-17 15:26:35
阅读次数:
317
Transvalor TherCAST HPC 2012 R1 Win32_64 2DVD Actix.Analyzer.v5.5.338.385.Win32_64 2CD CMG.Suite.v2015.101-ISO 1DVD Korf Hydraulics v3.4 1CD Software ...
分类:
其他好文 时间:
2016-08-11 15:54:51
阅读次数:
299
由于elasticsearch基于lucene,所以天然地就多了许多lucene上的中文分词的支持,比如 IK, Paoding, MMSEG4J等lucene中文分词原理上都能在elasticsearch上使用。当然前提是有elasticsearch的插件。 至于插件怎么开发,这里有一片文章介绍: ...
分类:
其他好文 时间:
2016-08-09 00:06:01
阅读次数:
231
1、首先需要安装好Elasticsearch 和elasticsearch-analysis-ik分词器 2、配置ik同义词 Elasticsearch 自带一个名为 synonym 的同义词 filter。为了能让 IK 和 synonym 同时工作,我们需要定义新的 analyzer,用 IK ...
分类:
其他好文 时间:
2016-08-06 19:09:33
阅读次数:
137