在Elasticsearch中,我们可以使用_search终端进行搜索。这个在我之前的文章 “开始使用Elasticsearch (2)” 中有很多的描述。针对这种搜索,我们可以使用强大的DSL进行搜索。在Elasticsearch中,还有一类是基于URI的搜索。对于这种它可以很方便地直接在浏览器中 ...
分类:
其他好文 时间:
2019-12-24 15:43:33
阅读次数:
138
Elastic的Medcl提供了一种搜索Pinyin搜索的方法。拼音搜索在很多的应用场景中都有被用到。比如在百度搜索中,我们使用拼音就可以出现汉字: 对于我们中国人来说,拼音搜索也是非常直接的。那么在Elasticsearch中我们该如何使用pinyin来进行搜索呢?答案是我们采用Medcl所创建的 ...
分类:
其他好文 时间:
2019-12-23 14:53:29
阅读次数:
129
主要问题 一定要保证ElasticSearch和ElasticSearch插件的版本一致 我是用的是ElasticSearch是5.6.11版本 对应elasticsearch-analysis-ik-5.6.11 安装插件 在线安装 进入容器 docker exec -it elasticsear ...
分类:
其他好文 时间:
2019-12-16 17:34:31
阅读次数:
88
elasticsearch kibana + 分词器安装详细步骤 一、准备环境 系统: JDK安装包: ES安装包: , "下载地址" Kibana安装包: , "下载地址" IK分词器安装包: , "下载地址" 目前准备两个节点做节点规划,分别是 、`192.168.56.106` 首先需要将 环 ...
分类:
其他好文 时间:
2019-12-16 13:01:57
阅读次数:
92
solr 基本介绍Apache Solr (读音: SOLer) 是一个开源的搜索服务器。Solr 使用 Java 语言开发,主要基于 HTTP 和 Apache Lucene 实现。Apache Solr 中存储的资源是以 Document 为对象进行存储的。每个文档由一系列的 Field 构成,... ...
分类:
其他好文 时间:
2019-12-14 10:05:08
阅读次数:
149
前言 中文分词有很多种,常见的比如有中科院计算所 NLPIR、哈工大 LTP、清华大学 THULAC 、斯坦福分词器、Hanlp 分词器、jieba 分词、IKAnalyzer 等。这里针对 jieba 和 HanLP 分别介绍不同场景下的中文分词应用。 jieba 分词 jieba 安装 (1)P ...
分类:
其他好文 时间:
2019-12-02 16:51:41
阅读次数:
77
Mapping在ES中是非常重要的一个概念。决定了一个index中的field使用什么数据格式存储,使用什么分词器解析,是否有子字段,是否需要copy to其他字段等。Mapping决定了index中的field的特征。在ES中有一些自动的字段数据类型识别。自动识别标准:数字 -> long 长整数 ...
分类:
移动开发 时间:
2019-12-01 13:54:17
阅读次数:
102
此文摘自https://www.cnblogs.com/hengzhi/p/9290667.html ES默认对英文文本的分词器支持较好,但和lucene一样,如果需要对中文进行全文检索,那么需要使用中文分词器,同lucene一样,在使用中文全文检索前,需要集成IK分词器。 可以从GitHub上获取 ...
分类:
其他好文 时间:
2019-11-21 16:45:12
阅读次数:
69
1.准备好Elasticsearch环境,这里使用的是window版本。 1.从官网下载安装包:https://www.elastic.co/cn/downloads/past-releases/elasticsearch-5-6-16 2.分词器 elasticsearch-analysis-ik ...
分类:
编程语言 时间:
2019-11-15 20:21:16
阅读次数:
63
IK分词器的使用 首先我们通过 发送 请求查询分词效果 得到如下结果,可以发现es的默认分词器无法识别中文中 、`银行`这样的词汇,而是简单的将每个字拆完分为一个词,这显然不符合我们的使用要求。 首先我们访问 https://github.com/medcl/elasticsearch analys ...
分类:
其他好文 时间:
2019-11-07 11:24:57
阅读次数:
77