海量数据搜索---demo展示百度、谷歌搜索引擎的实现然后我们根据这个字典树来对这段话进行词语切分。IK分词器中,基本可以分为两种模式:一种是smart模式、一种是非smart模式,可以在代码中初始化的时候去配置。
分类:
其他好文 时间:
2019-09-11 11:57:13
阅读次数:
88
两两枚举点(xi,yi)(xj,yj)对于第三个点(xk,yk),只要向量ik和ij方向不同即可 只要(xj-xi,yj-yi) 和 (xk-xi,yk-yi)化简后不相同即可,用每个点开个map存下一个gcd的pair即可 ...
分类:
其他好文 时间:
2019-08-29 17:49:20
阅读次数:
83
Linux监控工具 nmon nmon是一种在Linux操作系统上广泛使用的监控与分析工具,nmon所记录的信息是比较全面的,它能在系统运行 过程中实时地捕捉系统资源的使用情况,并且能输出结果到文件中,然后通过nmon_analyzer工具产生数据文件与图 形化结果。 nmon下载与安装 wget ...
分类:
系统相关 时间:
2019-08-28 13:22:28
阅读次数:
112
分析过程 当数据被发送到elasticsearch后并加入倒排序索引之前,elasticsearch会对文档进行处理: 字符过滤:使用字符过滤器转变字符。 文本切分为分词:将文本(档)分为单个或多个分词。 分词过滤:使用分词过滤器转变每个分词。 分词索引:最终将分词存储在Lucene倒排索引中。 整 ...
分类:
其他好文 时间:
2019-08-24 00:36:15
阅读次数:
163
我们在做ctf时,经常需要辨认各种文件头,跟大家分享一下一些常见的文件头。 扩展名 文件头标识(HEX) 文件描述 123 00 00 1A 00 05 10 04 Lotus 1-2-3 spreadsheet (v9) file 3gg; 3gp; 3g2 00 00 00 nn 66 74 7 ...
分类:
其他好文 时间:
2019-08-23 00:10:26
阅读次数:
159
一、前言 为什么要在elasticsearch中要使用ik这样的中文分词呢,那是因为es提供的分词是英文分词,对于中文的分词就做的非常不好了,因此我们需要一个中文分词器来用于搜索和使用。 二、IK分词器的安装和使用 2.1、安装ik 我们可以从官方github上下载该插件,我们下载对应于我们使用的e ...
分类:
其他好文 时间:
2019-08-21 00:03:11
阅读次数:
114
1,下载插件压缩包(本地测试建议用迅雷下,生产用的绝对不要用迅雷下),链接地址:https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.3.0 2,在 elasticsearch-7.3.0\plugins 目录下新建一个 ...
创建 Mapping Mapping 是必须有自己进行创建的,这里还需要进行 ik 的分词,如果使用的默认识别有可能数据类型非常乱,而且还不具备分词功能。 $ curl -XPOST http://localhost:9200/scrapy-51job/fulltext/_mapping -d' { ...
分类:
移动开发 时间:
2019-08-14 18:42:55
阅读次数:
124
首先是配置文件package.json,里边包括所用到的babel以及关于react的一些依赖包。 接下来是开发环境的配置,创建一个config文件夹,创建webpack.config.js 创建start.js startApp方法 开发环境基本上搭建完成。开始搭建生产环境 生产环境基本搭建完成, ...
分类:
移动开发 时间:
2019-08-13 21:08:48
阅读次数:
162
本来这次想好好写一下博客的...结果耐心有限,又想着烂尾总比断更好些。于是还是把后续代码贴上。不过后续代码是继续贴在BNF容器里面的...可能会显得有些臃肿。但目前管不了那么多了。先贴上来吧hhh。说不定哪天觉得羞耻又改了呢。参考资料建议参考《编译器设计》一书。 目前完成进度 : 目前已经完成了表驱 ...
分类:
编程语言 时间:
2019-08-10 13:35:53
阅读次数:
128