1、建立索引为了对文档进行索引,Lucene提供了五个基础的类,他们分别是Document, Field, IndexWriter, Analyzer, Directory。下面我们分别介绍一下这五个类的用途:DocumentDocument是用来描述文档的,这里的文档可以指一个HTML页面,一封电...
分类:
Web程序 时间:
2014-12-03 18:31:47
阅读次数:
275
创建索引的代码如下:package com.search.lucene;import java.io.File;import org.apache.lucene.analysis.Analyzer;import org.apache.lucene.analysis.standard.Standard...
分类:
Web程序 时间:
2014-12-02 16:58:29
阅读次数:
192
本文详细地介绍了“万能数据库查询分析器”,中文版本《DB 查询分析器》、英文版本《DB Query Analyzer》6.02 中新增的SQL “执行计划”数据库连接自动恢复功能。“在CSDN专访马根峰”的文章中,编辑问我如果有时间,我会做什么?我说会实现万能数据库查询分析器的“执行计划”数据库连接自动恢复功能。非常高兴这一段时间内终于实现了此功能。
从6.02版本开始,只要将“工具-?选项”窗口中的选项“SQL执行计划连接自动恢复”设置为“选中”状态,那么即使在“SQL执行计划”期间数据库服务器...
分类:
数据库 时间:
2014-12-01 08:55:13
阅读次数:
398
在进行工程调试的时候有时候需要对变量进行观察,SingnaTap II Logic Analyzer 只能对管脚进行观察,所以要观察内部的变量必须把内部的变量进行输出。一种方法是直接把变量定义成管脚通过signaltap II观察,一种是用显示器显示,另外一种是通过串口进行观察。本文主要写了串口发送...
分类:
其他好文 时间:
2014-11-29 10:18:58
阅读次数:
214
Eclipse Memory Analyze 是JAVA 堆转储文件分析工具,可以帮助你发现内存漏洞和减少内存消耗。
概述
对于大型 JAVA 应用程序来说,再精细的测试也难以堵住所有的漏洞,即便我们在测试阶段进行了大量卓有成效的工作,很多问题还是会在生产环境下暴露出来,并且很难在测试环境中进行重现。JVM 能够记录下问题发生时系统的部分运行状态,并将其存储在堆转储 (Heap...
分类:
系统相关 时间:
2014-11-27 01:40:12
阅读次数:
347
根对象(Root Object)
映射的最顶层被称为根对象。它包含了:
属性区域(Properties Section),列举了文档中包含的每个字段的映射信息。各种元数据(Metadata)字段,它们都以_开头,比如_type,_id,_source。控制用于新字段的动态探测(Dynamic Detection)的设置,如analyzer,dynamic_date_formats和dy...
分类:
其他好文 时间:
2014-11-26 11:24:04
阅读次数:
267
自定义解析器(Custom Analyzers)
虽然ES本身已经提供了一些解析器,但是通过组合字符过滤器(Character Filter),分词器(Tokenizer)以及词条过滤器(Token Filter)来创建你自己的解析器才会显示出其威力。
在解析和解析器中,我们提到过解析器(Analyzer)就是将3种功能打包得到的,它会按照下面的顺序执行:
字符过滤器(Cha...
分类:
其他好文 时间:
2014-11-25 12:52:50
阅读次数:
247
HTTP Analyzer 是一个实时的web调试代理,如果你对Fiddler不陌生的话,HTTP Analyzer 就是和Fiddler具备一样功能的调试代理。推荐这个软件而不推荐Fiddler的原因是。1、HTTP Analyzer支持SSL。2、HTTP Analyzer的过滤器比Fiddle...
分类:
Web程序 时间:
2014-11-23 18:56:07
阅读次数:
389
Up to Nov 21,2014, the latest version of DB Query Analyzer is 6.02. In 6.02, if you selected the option 'SQL Schedule Reconnect' in window configurations, the Schedule SQL scripts will be executed as long as the Database Server is in use, even though the D...
分类:
数据库 时间:
2014-11-21 09:10:49
阅读次数:
372
TokenStream: 分词器做好处理之后得到的一个流。这个流中存储了分词的各种信息,可以通过TokenStream有效的获取到分词单元。
以下是把文件流转换成分词流(TokenStream)的过程
首先,通过Tokenizer来进行分词,不同分词器有着不同的Tokenzier,Tokenzier分完词后,通过TokenFilter对已经分好词的数据进行过滤,比如停止词。过滤完之后,把所有的数据组合成一个TokenStream;...
分类:
Web程序 时间:
2014-11-17 22:56:37
阅读次数:
458