两两枚举点(xi,yi)(xj,yj)对于第三个点(xk,yk),只要向量ik和ij方向不同即可 只要(xj-xi,yj-yi) 和 (xk-xi,yk-yi)化简后不相同即可,用每个点开个map存下一个gcd的pair即可 ...
分类:
其他好文 时间:
2019-08-29 17:49:20
阅读次数:
83
一、前言 为什么要在elasticsearch中要使用ik这样的中文分词呢,那是因为es提供的分词是英文分词,对于中文的分词就做的非常不好了,因此我们需要一个中文分词器来用于搜索和使用。 二、IK分词器的安装和使用 2.1、安装ik 我们可以从官方github上下载该插件,我们下载对应于我们使用的e ...
分类:
其他好文 时间:
2019-08-21 00:03:11
阅读次数:
114
1,下载插件压缩包(本地测试建议用迅雷下,生产用的绝对不要用迅雷下),链接地址:https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.3.0 2,在 elasticsearch-7.3.0\plugins 目录下新建一个 ...
创建 Mapping Mapping 是必须有自己进行创建的,这里还需要进行 ik 的分词,如果使用的默认识别有可能数据类型非常乱,而且还不具备分词功能。 $ curl -XPOST http://localhost:9200/scrapy-51job/fulltext/_mapping -d' { ...
分类:
移动开发 时间:
2019-08-14 18:42:55
阅读次数:
124
很多时候,我们需要在ElasticSearch中启用中文分词,本文这里简单的介绍一下方法。首先安装中文分词插件。这里使用的是 ik,也可以考虑其他插件(比如 smartcn)。 $ ./bin/elasticsearch-plugin install https://github.com/medcl ...
分类:
其他好文 时间:
2019-08-10 09:54:13
阅读次数:
75
ik分词插件下载地址: https://download.csdn.net/download/u014453536/9587721 接上一教程,这个教程如何配置中文ik分词 检查schema的管理模式 配置成经典模式 解压分词工具包,把IKAnalyzer2012FF_u1.jar文件复制到lib目 ...
分类:
其他好文 时间:
2019-08-08 23:27:56
阅读次数:
130
[TOC] 字符串的内置方法 按索引取值 切片(顾头不顾尾,步长) `msg[3:]: lo nick msg[3:8]: lo ni msg[3:8:2]): l i msg[3::2]: l ik 切片所有:hello nick 反转所有 msg[:: 1]: kcin olleh 切片 5~ ...
分类:
编程语言 时间:
2019-08-06 20:13:54
阅读次数:
159
描述 一个数的序列bi,当b1 < b2 < ... < bS的时候,我们称这个序列是上升的。对于给定的一个序列(a1, a2, ..., aN),我们可以得到一些上升的子序列(ai1, ai2, ..., aiK),这里1 <= i1 < i2 < ... < iK <= N。比如,对于序列(1, ...
分类:
其他好文 时间:
2019-07-22 16:31:07
阅读次数:
89
前言 至于为什么要用solr5.5,因为最新的6.10,没有中文的分词器支持,这里使用的是ik分词器,刚好支持到5.5 ik分词器下载地址 :https://github.com/EugenePig/ik-analyzer-solr5 , 下载完之后使用maven命令, mvn package 即可 ...
分类:
其他好文 时间:
2019-07-19 21:03:56
阅读次数:
103
本来打算docker安装es,和腾讯云上的服务器相比,一台赤裸裸的本地机,甚至连很多基础的指令都没有,还花样各种报错,对于我这种新手来说简直了,百度啊cddn啊终于整出来了,记录一下: 一:安装依赖 首先:es 依赖Lucene 而Lucene又依赖JVM.所以jdk的安装是免不了的 <! more ...
分类:
其他好文 时间:
2019-07-08 14:03:43
阅读次数:
130