码迷,mamicode.com
首页 > 其他好文 > 详细

solr学习文档之添加分词词库

时间:2015-08-05 10:32:28      阅读:238      评论:0      收藏:0      [点我收藏+]

标签:solr   分词   ik   学习   

在上一篇文章中我们学习了solr的快速入门和针对mysql数据库建立索引,今天我们介绍如何为solr添加中文分词
1、  在百度搜索ik-analyzer,找到后下载,我下载的是【IKAnalyzer 2012FF_hf1.zip】,解压后会看到如下目录
技术分享 
2、  把IKAnalyzer2012FF_u1.jar拷贝到webapps下solr的lib文件夹下,把IKAnalyzer.cfg.xml和stopword.dic拷贝到solr的conf目录中
3、  修改schema.xml文件,增加如下内容:
<fieldTypename="text_ik" class="solr.TextField">     
     <analyzerclass="org.wltea.analyzer.lucene.IKAnalyzer"/>     
</fieldType>


4、  重启tomcat,在collection1中找到analysis,

技术分享
选择text_ik并输入汉字“你好”,将会看到
技术分享 
则表示成功,你也可以按照ik所给的pdf文档进行操作

所谓分词,就是把你的话给拆开,比如,“我是一个好人”,不同的分词粒度拆分的细度不一样,有的拆成“我,我是,一,一个,好,好人,人”,有的拆成“我是,一个,好人”这主要取决于你的分析粒度


版权声明:本文为博主原创文章,未经博主允许不得转载。

solr学习文档之添加分词词库

标签:solr   分词   ik   学习   

原文地址:http://blog.csdn.net/junjun56/article/details/47292661

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!