码迷,mamicode.com
首页 > 其他好文 > 详细

solr简明教程

时间:2019-10-30 19:58:13      阅读:85      评论:0      收藏:0      [点我收藏+]

标签:arraylist   pos   变化   sch   actor   文件类型   gettime   tga   标示   

文章目录
安装
启动
创建core
配置core索引MySQL数据
3.2.1
3.2.2
3.2.3
测试定时更新
五、配置中文分词
SolrJ 操作索引的增、删、查
七、通过SolrJ对MySQL数据库进行全量更新、增量更新
八、索引高亮显示
九、SolrJ读取富文本创建索引
安装
从官网下载Solr7.4(或本资源包内直接解压,本包内也是官网下载的)

下载地址:https://mirrors.tuna.tsinghua.edu.cn/apache/lucene/solr/7.4.0/

因为我是Windows系统所以选的是.zip的版本,如果是Linux系统需要用.tgz的版本,下面都是以Windows系统下的示例。

Solr7.4是免安装的,解压后就可以直接使用了。

启动

打开之后是这样的

创建core
在cmd窗口输入:

solr create -c testcore
1
testcore 是自己起的名字,回车后会出现下面的信息(还是会有log4j2的错误信息,不用管)
一刷新

Core也可以直接在控制台创建,但是需要自己先再Solr安装根目录/server/solr目录下创建一个core文件夹,而且里面要自己创建一个data文件夹。然后通过控制台的Core Admin创建core 。
个人建议直接在cmd窗口用命令创建,省力省心还可靠。
网上还有自己拷贝conf文件夹到自己创建core 等等的操作,感觉太麻烦。有兴趣的自行百度。

配置core索引MySQL数据
1、把数据库驱动jar包放到
Solr安装根目录/server/solr-webapp/webapp/WEB-INF/lib下

2、把Solr安装根目录/dist文件夹下的
solr-dataimporthandler-x.x.x.jar
solr-dataimporthandler-extras-x.x.x.jar

放到Solr安装根目录/server/solr-webapp/webapp/WEB-INF/lib下

4、Solr安装根目录/server/solr/核心/conf路径下添加文件data-config.xml,并添加以下内容(示范如下)










    </entity>
</document>

3.2.1
solr默认使用UTC时间,即与中国时差8小时,所以需要修改配置文件:
Solr安装根目录/bin/solr.in.sh

SOLR_TIMEZONE=”UTC+8”
默认是注释掉的,找到SOLR_TIMEZONE修改后面的值为UTC+8
注意:如果单纯修改solr.in.sh文件没有作用,就修改和solr.in.sh同目录下的solr.cmd文件,修改其中的set SOLR_TIMEZONE=UTC为set SOLR_TIMEZONE=UTC+8

3.2.2
修改mysql数据库的表结构,添加一个时间戳字段,当某行数据发生更新时该字段自动更新为修改数据的时间,为solr增量添加提供服务(范例如下)
ALTER TABLE testdb ADD last_modified TIMESTAMP NOT NULL ON UPDATE CURRENT_TIMESTAMP DEFAULT current_timestamp

3.2.3
修改solr/server/solr/核心/conf路径下添加文件data-config.xml,并添加增量SQL(示范如下)

就是多添加了deltaQuery部分










    </entity>
</document>

4、修改solrconfig.xml,添加以下内容

data-config.xml

5、修改managed-schema,添加mysql中需要存入solr的字段(示范如下)
准备测试效果:
数据库里的数据:

注意:当last_modified的值是0000-00-00 00:00:00时会有错误,
因为java的时间是从1970年开始的,所以不能翻译这个时间,导致的结果就是查不到数据。
现在测试全量更新:依次选择1234

结果是:

测试增量更新,在数据库新添一条数据
注意:增量更新就是只更新有变化的数据,不会更新没有变化的数据。如果增量更新选择clean会删除所有的原索引数据,然后只更新有修改过的数据。
正常使用情况下增量更新的clean是不选择的。这里为了测试更新方式是增量更新的方式,所以选择了clean。切忌用在项目中!!!除非你知道会有什么后果

结果是:

我们看到,之前的两条数据被删除了,只有一条新添加的数据。证明增量更新的功能有效。
四、接下来我们配置一个实用的功能:定时更新
因为数据库的数据可能是动态变化的,为了能和数据库的数据“及时”同步,所以就有了这个功能。
它可以按设定时间自动更新一次索引

4.1修改testcore目录下的配置文件core.properties
name=testcore
config=solrconfig.xml
schema=data-config.xml
dataDir=data

4.2添加实时更新索引相关的jar包:dataimportscheduler-1.2.jar 到
Solr安装根目录/server/solr-webapp/webapp/WEB-INF/lib下

还有两个jar包因为之前已经添加过了就不需要添加了,是
solr-dataimporthandler-x.x.x.jar
solr-dataimporthandler-extras-x.x.x.jar

4.3 修改Solr安装根目录/server/solr-webapp/webapp/WEB-INF/web.xml
把这个添加到里面

org.apache.solr.handler.dataimport.scheduler.ApplicationListener

注意:中间的内容两边不要有空格,容易出现不正常现象

4.4添加更新配置文件:Solr安装根目录/server/solr下新建conf文件夹
在文件夹下新建dataimport.properties文件

dataimport scheduler properties

to sync or not to sync

1 - active; anything else - inactive

syncEnabled=1

which cores to schedule

in a multi-core environment you can decide which cores you want syncronized

leave empty or comment it out if using single-core deployment

syncCores=game,resource

syncCores=testcore

solr server name or IP address

[defaults to localhost if empty]

server=localhost

solr server port

[defaults to 80 if empty]

port=8983
interval=2

application name/context

[defaults to current ServletContextListener‘s context (app) name]

webapp=solr

URL params [mandatory]

remainder of URL

params=/dataimport?command=delta-import&clean=false&commit=true

schedule interval

number of minutes between two runs

[defaults to 30 if empty]

重做索引的时间间隔,单位分钟,默认7200,即5天;

为空,为0,或者注释掉:表示永不重做索引

reBuildIndexInterval=7200

重做索引的参数

reBuildIndexParams=/dataimport?command=full-import&clean=true&commit=true

重做索引时间间隔的计时开始时间,第一次真正执行的时间=reBuildIndexBeginTime+reBuildIndexInterval601000;

两种格式:2012-04-11 03:10:00 或者 03:10:00,后一种会自动补全日期部分为服务启动时的日期

reBuildIndexBeginTime=03:10:00

测试定时更新

我们先全量更新一下所有数据,然后在数据库添加一条数据,再等一分钟直接查询
更新前

更新后

五、配置中文分词
solr自带的几个分词器对中文支持并不好,所以需要使用第三方分词器对中文进行分词索引。
常用的分词器有:ansj和ik,前者的效果更好。
注:目前发现ansj分词器索引内容大小超过65248字节时,会报异常,目前尚未找到解决办法
5.1需要的jar包:
ansj_lucene5_plug-5.1.1.2.jar
ansj_seg-5.1.1.jar
ik-analyzer-solr5-5.x.jar
nlp-lang-1.7.2.jar

放到Solr安装根目录/server/solr-webapp/webapp/WEB-INF/lib 中

5.2配置放到Solr安装根目录/server/solr/testcore/conf下的managed-schema
(还是之前配置的那个)


















然后为要索引的字段添加分词器,例如


1
测试

成功了!

SolrJ 操作索引的增、删、查
import org.apache.solr.client.solrj.SolrClient;
import org.apache.solr.client.solrj.SolrQuery;
import org.apache.solr.client.solrj.SolrServerException;
import org.apache.solr.client.solrj.impl.HttpSolrClient;
import org.apache.solr.client.solrj.response.QueryResponse;
import org.apache.solr.common.SolrDocument;
import org.apache.solr.common.SolrDocumentList;
import org.apache.solr.common.SolrInputDocument;

import java.io.IOException;
import java.util.Iterator;

public class IndexOperation {
private static final String urlString = "http://localhost:8983/solr/testcore";
private static SolrClient solr = new HttpSolrClient.Builder(urlString).build();

public void addIndexTest(){//添加一个索引

    SolrInputDocument doc = new SolrInputDocument();
    //默认id为主键,当id存在时更新数据,否则添加数据
    doc.addField("id", "3");
    doc.addField("name", "hello world test");
    doc.addField("age", "230");
    doc.addField("addr", "1111");
    try {
        solr.add(doc);
        solr.commit();
    } catch (SolrServerException e) {
        e.printStackTrace();
    } catch (IOException e) {
        e.printStackTrace();
    }

}

public void deleteIndexTest(String did){
    //通过id删除索引
    try {
        solr.deleteById(did);
        solr.commit();
    } catch (SolrServerException e) {
        e.printStackTrace();
    } catch (IOException e) {
        e.printStackTrace();
    }
    //通过搜索条件删除索引
    //solr.deleteByQuery(query);

}

public void selectIndexTest(){// 查询
    SolrQuery query = new SolrQuery();
    // *标示多个任意字符,?标示单个任意字符,~模糊搜索
    query.setQuery("*:*");    //全搜索
    // 分页
    query.setStart(0);
    query.setRows(10);

    QueryResponse queryResponse = null;
    try {
        queryResponse = solr.query(query);
    } catch (SolrServerException e) {
        e.printStackTrace();
    } catch (IOException e) {
        e.printStackTrace();
    }

    SolrDocumentList docs = queryResponse.getResults();
    Iterator<SolrDocument> iter = docs.iterator();
    while(iter.hasNext()){
        SolrDocument doc = iter.next();
        System.out.println(doc.toString());
    }
    try {
        solr.commit();
    } catch (SolrServerException e) {
        e.printStackTrace();
    } catch (IOException e) {
        e.printStackTrace();
    }
}

//测试
public static void main(String[] args){
    IndexOperation ion=new IndexOperation();
    ion.addIndexTest();
    ion.selectIndexTest();
    System.out.println("---------------分割线-----------------");
    ion.deleteIndexTest("3");
    ion.selectIndexTest();
}

}

七、通过SolrJ对MySQL数据库进行全量更新、增量更新
import java.io.IOException;
import java.io.UnsupportedEncodingException;
import java.util.ArrayList;
import java.util.Date;
import java.util.List;
import org.apache.http.NameValuePair;
import org.apache.http.client.CookieStore;
import org.apache.http.client.entity.UrlEncodedFormEntity;
import org.apache.http.client.methods.HttpPost;
import org.apache.http.impl.client.BasicCookieStore;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClientBuilder;
import org.apache.http.message.BasicNameValuePair;

public class LinkMysql {//对数据库进行的操作,全量更新,增量更新

private CloseableHttpClient httpclient = null;
private CookieStore cookieStore = null;
private final String baseSolrUrl;

/**
 * 全量导入
 */
private static final String FULL_IMPORT = "full-import";
/**
 * 增量导入
 */
private static final String DELTA_IMPORT = "delta-import";

public LinkMysql(String baseSolrUrl) {
    if(!baseSolrUrl.endsWith("/")){
        baseSolrUrl += "/";
    }
    this.baseSolrUrl = baseSolrUrl;
}

private synchronized void init(){
    if(httpclient == null){
        cookieStore = new BasicCookieStore();
        httpclient = HttpClientBuilder.create().setDefaultCookieStore(cookieStore).build();
    }
}

public void fullImport(String coreName) throws IOException {
    init();

    HttpPost post = getDataImportPost(coreName, FULL_IMPORT);
    httpclient.execute(post);
}

public void deltaImport(String coreName) throws IOException {
    init();

    HttpPost post = getDataImportPost(coreName, DELTA_IMPORT);
    httpclient.execute(post);
}

private HttpPost getDataImportPost(String coreName,String command) throws UnsupportedEncodingException{
    HttpPost post = new HttpPost(baseSolrUrl + coreName + "/dataimport?indent=on&wt=json&_=" + new Date().getTime());
    List<NameValuePair> params = new ArrayList<NameValuePair>();
    params.add(new BasicNameValuePair("command", command));
    params.add(new BasicNameValuePair("verbose", "false"));
    if(command.equals(FULL_IMPORT)){
        params.add(new BasicNameValuePair("clean", "true"));
    }
    params.add(new BasicNameValuePair("commit", "true"));
    params.add(new BasicNameValuePair("optimize", "false"));
    params.add(new BasicNameValuePair("core", coreName));
    params.add(new BasicNameValuePair("name", "dataimport"));
    post.setEntity(new UrlEncodedFormEntity(params, "UTF-8"));
    return post;
}

public void close() throws IOException{
    httpclient.close();
    httpclient = null;
    cookieStore = null;
}

public  static void main(String[] args){
    //测试
    LinkMysql dataClient=new LinkMysql("http://localhost:8983/solr/");

    /*全量更新*/
    try {
        dataClient.fullImport("testcore");
        dataClient.close();
    } catch (IOException e) {
        e.printStackTrace();
    }

    /*增量更新*/
   /* try {
        dataClient.deltaImport("testcore");
        dataClient.close();
    } catch (IOException e) {
        e.printStackTrace();
    }*/

}

}

八、索引高亮显示
需要有一个实体类

public class TXDocument {
private String id;
private String path;
private String content;

public String getId() {
    return id;
}

public void setId(String id) {
    this.id = id;
}

public String getPath() {
    return path;
}

public void setPath(String path) {
    this.path = path;
}

public String getContent() {
    return content;
}

public void setContent(String content) {
    this.content = content;
}


public String toString() {
    return "TXDocument{" +
            "id='" + id + '\'' +
            ", path='" + path + '\'' +
            ", content='" + content + '\'' +
            '}';
}

}

下面来高亮的代码

import org.apache.solr.client.solrj.SolrQuery;
import org.apache.solr.client.solrj.SolrServerException;
import org.apache.solr.client.solrj.impl.HttpSolrClient;
import org.apache.solr.client.solrj.response.QueryResponse;
import org.apache.solr.common.SolrDocument;
import org.apache.solr.common.SolrDocumentList;

import java.io.IOException;
import java.util.List;
import java.util.Map;

public class GaoLiang {

public void  setHighL(){
    HttpSolrClient solrClient  = new HttpSolrClient.Builder("http://127.0.0.1:8983/solr/testcore").build();

    SolrQuery query = new SolrQuery();

    query.set("q","TName:*回归*");//查询的内容


    //1.过滤器
    //query.set("fq","pprice:[1 TO 100]");//query.setFilterQueries("pprice:[1 TO 100]");也可以用addFiterQuries设置多过滤条件

    //2.排序
    //query.set("sort","pprice desc,id asc");//query.setSort("pprice",ORDER.desc);  addSort


    //3.设置查询到的文档返回的域对象
    //query.set("fl","TBPackageName,PackageTypeID");//query.setFields("id,pname");

    //4.设置默认查询的域
    //query.set("df","pname");

    //5.分页
    //query.set("start",0);  //query.setStart(0)
    //query.set("rows",5);   //query.setRows(5)

    //6.高亮
    //query.set("hl",true);
    //设置高亮域(设置的域必须在查询条件中存在)
    // query.set("h1.fl","TBPackageName");
    //前缀
    // query.set("hl.simple.pre","<em style='color:red'>");
    //后缀
    //query.set("hl.simple.post","</em>");

    query.setHighlight(true);
    query.addHighlightField("TName");
    query.setHighlightSimplePre("<em style='color:red'>");
    query.setHighlightSimplePost("</em>");


    QueryResponse response=null;

    {
        try {
            response = solrClient.query(query);
        } catch (SolrServerException e) {
            e.printStackTrace();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

    SolrDocumentList results = response.getResults();
    System.out.println(results);
    //k是id,内部的map的key是域名,其value是高亮的值集合
    Map<String, Map<String, List<String>>> highlighting = response.getHighlighting();
    System.out.println("匹配的结果总数是-------"+results.getNumFound());
    for(SolrDocument document:results) {
        System.out.println("id----" + document.get("id"));
        System.out.println("pname-----" + document.get("TName"));
        //System.out.println("pprice------" + document.get("pprice"));
        List<String> list = null;
        if(highlighting.get(document.get("id")) != null) {
            list = highlighting.get(document.get("id")).get("TName");
        }else {
            System.out.println("无法获取高亮map");
        }
        System.out.println(list);
        if (list != null && list.size() > 0) {
            System.out.println("高亮显示的内容:----"+list.get(0));
        }else {
            System.out.println("高亮显示的内容为空!!!");
        }
        System.out.println("=========================");
    }
}

public static  void main(String[] args){
    GaoLiang gl=new GaoLiang();
    gl.setHighL();
}

}

如果之前你对高亮怎么用在前台显示的文字里,看到这个结果你应该能够猜到了,就是给需要高亮的字段加上了html标签,至于加什么效果,用什么标签就自己决定吧。高亮的意思不是闪闪发亮,只是一个让查询字段特别显示的代名词。
把这个以字符串的形式传给前台……后面就不需要我啰嗦了吧。

九、SolrJ读取富文本创建索引
就是读取word、pdf、xml……等文件的内容创建索引

import org.apache.solr.client.solrj.SolrClient;
import org.apache.solr.client.solrj.SolrServerException;
import org.apache.solr.client.solrj.impl.HttpSolrClient;
import org.apache.solr.client.solrj.request.AbstractUpdateRequest;
import org.apache.solr.client.solrj.request.ContentStreamUpdateRequest;

import java.io.File;
import java.io.IOException;
import java.text.SimpleDateFormat;
import java.util.Date;

public class FuWenBen {
public static void main(String[] args)
{ //测试
beStart("solr-word.pdf");
}

public static void beStart(String fname){
    //富文本存放路径,这是示例就写的简单粗暴一些
    String fileUrl = "E:/WorkSpace/ImportData/"+fname;

    try
    {
        indexFilesSolrCell(fname, fname,fileUrl);
    }
    catch (IOException e)
    {
        e.printStackTrace();
    }
    catch (SolrServerException e)
    {
        e.printStackTrace();
    }
}
/**
 * @Author:sks
 * @Description:获取系统当天日期yyyy-mm-dd
 * @Date:
 */
private static String GetCurrentDate(){
    Date dt = new Date();
    //最后的aa表示“上午”或“下午”    HH表示24小时制    如果换成hh表示12小时制

// SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss aa");
SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd");
String day =sdf.format(dt);
return day;
}

public static void indexFilesSolrCell(String fileName, String solrId, String path)
        throws IOException, SolrServerException
{
    String urlString = "http://localhost:8983/solr/testcore";
    SolrClient solr = new HttpSolrClient.Builder(urlString).build();

    ContentStreamUpdateRequest up = new ContentStreamUpdateRequest("/update/extract");
    String contentType = getFileContentType(fileName);
    up.addFile(new File(path), contentType);
    String fileType = fileName.substring(fileName.lastIndexOf(".")+1);
    up.setParam("literal.id", fileName);

    up.setParam("literal.path", path);//文件路径
    up.setParam("literal.pathuploaddate", GetCurrentDate());//文件上传时间
    up.setParam("literal.pathftype", fileType);//文件类型,doc,pdf
    up.setParam("fmap.content", "attr_content");//文件内容
    up.setAction(AbstractUpdateRequest.ACTION.COMMIT, true, true);
    solr.request(up);
}

/**
 * @Author:sks
 * @Description:根据文件名获取文件的ContentType类型
 * @Date:
 */
public static String getFileContentType(String filename) {
    String contentType = "";
    String prefix = filename.substring(filename.lastIndexOf(".") + 1);
    if (prefix.equals("xlsx")) {
        contentType = "application/vnd.openxmlformats-officedocument.spreadsheetml.sheet";
    } else if (prefix.equals("pdf")) {
        contentType = "application/pdf";
    } else if (prefix.equals("doc")) {
        contentType = "application/msword";
    } else if (prefix.equals("txt")) {
        contentType = "text/plain";
    } else if (prefix.equals("xls")) {
        contentType = "application/vnd.ms-excel";
    } else if (prefix.equals("docx")) {
        contentType = "application/vnd.openxmlformats-officedocument.wordprocessingml.document";
    } else if (prefix.equals("ppt")) {
        contentType = "application/vnd.ms-powerpoint";
    } else if (prefix.equals("pptx")) {
        contentType = "application/vnd.openxmlformats-officedocument.presentationml.presentation";
    }

    else {
        contentType = "othertype";
    }

    return contentType;
}

}

solr简明教程

标签:arraylist   pos   变化   sch   actor   文件类型   gettime   tga   标示   

原文地址:https://www.cnblogs.com/aibabel/p/11767270.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!