lucene介绍及简单入门案例(集成ik分词器)(代码片段)

alex-zqzy alex-zqzy     2022-12-20     798

关键词:

介绍  

  Lucene是apache软件基金会4 jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包,但它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎(英文与德文两种西方语言)。Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎。Lucene是一套用于全文检索和搜寻的开源程式库,由Apache软件基金会支持和提供。Lucene提供了一个简单却强大的应用程式接口,能够做全文索引和搜寻。在Java开发环境里Lucene是一个成熟的免费开源工具。就其本身而言,Lucene是当前以及最近几年最受欢迎的免费Java信息检索程序库。人们经常提到信息检索程序库,虽然与搜索引擎有关,但不应该将信息检索程序库与搜索引擎相混淆。

  Lucene是Apache提供的一个开源的全文检索引擎工具包, 其本质就是一个工具包, 而非一个完整的搜索引擎, 但是我们可以通过Lucene来构建一个搜索引擎,比如solr和elasticsearch都是基于Lucene的搜索引擎。

 

使用Lucene如何构建索引

第一步:导入相关的jar包

<dependency>
    <groupId>org.apache.lucene</groupId>
    <artifactId>lucene-core</artifactId>
    <version>4.10.2</version>
</dependency>
<dependency>
    <groupId>org.apache.lucene</groupId>
    <artifactId>lucene-queries</artifactId>
    <version>4.10.2</version>
</dependency>
<dependency>
    <groupId>org.apache.lucene</groupId>
    <artifactId>lucene-test-framework</artifactId>
    <version>4.10.2</version>
</dependency>
<dependency>
    <groupId>org.apache.lucene</groupId>
    <artifactId>lucene-analyzers-common</artifactId>
    <version>4.10.2</version>
</dependency>
<dependency>
    <groupId>org.apache.lucene</groupId>
    <artifactId>lucene-queryparser</artifactId>
    <version>4.10.2</version>
</dependency>
<dependency>
    <groupId>org.apache.lucene</groupId>
    <artifactId>lucene-highlighter</artifactId>
    <version>4.10.2</version>
</dependency>    

第二步:书写写入索引的代码

技术分享图片

简单案例:

public class LuceneIndex 
    public static void main(String[] args) throws IOException 
        //1 创建indexwriter对象
        //1.1 创建索引库
        FSDirectory directory = FSDirectory.open(new File("H:\\test"));
        //1.2 创建写入器配置对象 参数1 版本号, 参数2 分词器
        IndexWriterConfig config = new IndexWriterConfig(Version.LATEST, new StandardAnalyzer());
        //1.3 创建indexwriter对象
        IndexWriter indexWriter = new IndexWriter(directory, config);

        //2 写入文档
        //2.1 创建文档对象(lucene的document对象)
        Document document = new Document();
        //2.2 添加文档属性(字段)   new xxxField(字段名,字段值,是否保存)
        document.add(new IntField("id", 1, Field.Store.YES));
        document.add(new StringField("title", "Lucene介绍", Field.Store.YES));
        document.add(new TextField("content", "Lucene是一个全文检索的工具包", Field.Store.YES));
        //2.3 写入文档
        indexWriter.addDocument(document);

        //3 提交数据
        indexWriter.commit();

        //释放资源
        indexWriter.close();
    

 

使用索引查看工具查看插入的索引信息

下载一个lukeall-xxxx(版本信息).jar, cmd运行这个工具jar包:

技术分享图片

技术分享图片

技术分享图片

 

Lucene集成IKAnalyzer 中文分词器

Analyzer: 分词器:

?   用于对文档中的数据进行分词, 其分词的效果取决于分词器的选择, Lucene中根据各个国家制定了各种语言的分词器,对中文有一个ChineseAnalyzer 但是其分词的效果, 是将中文进行一个一个字的分开

针对中文分词一般只能使用第三方的分词词,比如IKAnalyzer

 

首先要引入jar包:

<!-- 引入IK分词器 -->
<dependency>
    <groupId>com.janeluo</groupId>
    <artifactId>ikanalyzer</artifactId>
    <version>2012_u6</version>
</dependency>

代码部分只需要修改我们上面案例的分词器对象即可:

//1.2 创建写入器配置对象 参数1 版本号, 参数2 分词器
IndexWriterConfig config = new IndexWriterConfig(Version.LATEST, new IKAnalyzer());

高级使用:

ik分词器在2012年更新后, 就在没有更新, 其原因就取决于其强大的扩展功能,以保证ik能够持续使用

  ik支持对自定义词库, 其可以定义两个扩展的词典

    1) 扩展词典(新创建词功能):有些词IK分词器不识别 例如:“剑来”,“剑九黄”

    2) 停用词典(停用某些词功能)有些词不需要建立索引  例如:“哦”,“啊”,“的”

如何使用:

技术分享图片

在resources内创建者三个文件,在ext.dic中设置需要进行分词的内容即可, 在stopword中设置不被分词的内容即可,xml文件内容格式如下:

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">  
<properties>  
    <comment>IK Analyzer 扩展配置</comment>
    <!--用户可以在这里配置自己的扩展字典 -->
    <entry key="ext_dict">ext.dic;</entry> 
    
    <!--用户可以在这里配置自己的扩展停止词字典-->
    <entry key="ext_stopwords">stopword.dic;</entry> 
    
</properties>

其他两个词典内容格式:

剑来
剑九黄
剑开天门

 

 

API详解:

  • IndexWriter: 索引写入器对象

    其主要的作用, 添加索引, 修改索引和删除索引

    • 创建此对象的时候, 需要传入Directory和indexWriterConfig对象

  • Directory: 目录类, 用来指定索引库的目录

    • 常用的实现类:

      • FSDirectory: 用来指定文件系统的目录, 将索引信息保存到磁盘上

        • 优点: 索引可以进行长期保存, 安全系数高

        • 缺点: 读取略慢

      • RAMDriectory: 内存目录, 将索引库信息存放到内存中

        • 优点: 读取速度快

        • 缺点: 不安全, 无法长期保存, 关机后就消失了

  • IndexWriterConfig: 索引写入器的配置类

    • 创建此对象, 需要传递Lucene的版本和分词器

    • 作用:

      • 作用1 : 指定Lucene的版本和需要使用的分词器

      • 作用2: 设置Lucene的打开索引库的方式: setOpenMode();

//参数值: APPEND CREATE   CREATE_OR_APPEND
/**
 * APPEND: 表示追加, 如果索引库存在, 就会向索引库中追加数据, 如果索引库不存在, 直接报错
 * 
 * CREATE: 表示创建, 不管索引库有没有, 每一次都是重新创建一个新的索引库
 * 
 * CREATE_OR_APPEND: 如果索引库有, 就会追加, 如果没有 就会创建索引库
         默认值也是 CREATE_OR_APPEND
 */
config.setOpenMode(IndexWriterConfig.OpenMode.CREATE_OR_APPEND);
  • Document: 文档

?     在Lucene中, 每一条数据以文档的形式进行存储, 文档中也有其对应的属性和值, Lucene中一个文档类似数据库的一个表, 表中的字段类似于文档中的字段,只不过这个文档只能保存一条数据

?     Document看做是一个文件, 文件的属性就是文档的属性, 文件对应属性的值就是文档的属性的值 content

  • 一个文档中可以有多个字段, 每一个字段就是一个field对象,不同的文档可以有不同的属性

  • 字段也有其对应数据类型, 故Field类也提供了各种数据类型的实现类

 

Field类数据类型Analyzed是否分析Indexed是否索引Stored是否存储说明
StringField(FieldName, FieldValue,Store.YES)) 字符串 N Y Y或N 这个Field用来构建一个字符串Field,但是不会进行分析,会将整个串存储在索引中,比如(订单号,姓名等)是否存储在文档中用Store.YES或Store.NO决定
LongField(FieldName, FieldValue,Store.YES) Long型 Y Y Y或N 这个Field用来构建一个Long数字型Field,进行分析和索引,比如(价格)是否存储在文档中用Store.YES或Store.NO决定
StoredField(FieldName, FieldValue) 重载方法,支持多种类型 N N Y 这个Field用来构建不同类型Field不分析,不索引,但要Field存储在文档中
TextField(FieldName, FieldValue, Store.NO)或TextField(FieldName, reader) 字符串或流 Y Y Y或N 如果是一个Reader, lucene猜测内容比较多,会采用Unstored的策略.

 

 

更改和删除索引:

    /**
     * 更新索引
     * 本质先删除再添加
     * 先删除所有满足条件的文档,再创建文档
     * 因此,更新索引通常要根据唯一字段
     */
    @Test
    public void testUpdate() throws Exception 

        // 创建更改后的文档对象
        Document document = new Document();
        document.add(new StringField("id", "3", Field.Store.YES));
        document.add(new TextField("title", "更改后的titlek", Field.Store.YES));

        // 索引库对象
        Directory directory = FSDirectory.open(new File("H:\\test"));
        // 索引写入器配置对象
        IndexWriterConfig conf = new IndexWriterConfig(Version.LATEST, new IKAnalyzer());
        // 索引写入器对象
        IndexWriter indexWriter = new IndexWriter(directory, conf);

        // 执行更新操作 参数1 要更改的对象, 参数2 更改后的对象
        indexWriter.updateDocument(new Term("id", "1"), document);
        // 提交
        indexWriter.commit();
        // 关闭
        indexWriter.close();

    

    // 删除索引
    @Test
    public void testDelete() throws Exception 

        // 创建目录对象
        Directory directory = FSDirectory.open(new File("H:\\test"));
        // 创建索引写入器配置对象
        IndexWriterConfig conf = new IndexWriterConfig(Version.LATEST, new IKAnalyzer());
        // 创建索引写入器对象
        IndexWriter indexWriter = new IndexWriter(directory, conf);

        // 执行删除操作(根据词条),要求id字段必须是字符串类型
        indexWriter.deleteDocuments(new Term("id", "5"));
        // 根据查询条件删除
        // indexWriter.deleteDocuments(NumericRangeQuery.newLongRange("id", 2l, 4l, true, false));
        // 删除所有
        //indexWriter.deleteAll();

        // 提交
        indexWriter.commit();
        // 关闭
        indexWriter.close();
    

 

ik分词器和elasticsearch集成使用(代码片段)

...组合,能极大的提高Lucene检索的命中率。二、ElasticSearch集成IK分词器1、IK分词器的安装  下载地址:https://github.com/medcl/elasticsearch 查看详情

2021年大数据elk:elasticsearch安装ik分词器插件(代码片段)

...案例2021年大数据ELK(三):Lucene全文检索库介绍2021年大数据ELK(二): Elasticsearch简单介绍 查看详情

es语法及-ik分词器(代码片段)

"query":"query_string":"default_field":"title",//全文搜索"query":"器大""id":1, "title":"Elasticsearch是一个基于Lucene的搜索服务器", "content":"它提供了一个分布式多用户能力的全文搜索引擎,基于RESTfulweb接口。Elasticsearch是用Java开发的,并作为Apach 查看详情

java中文分词为啥用ik

...了。后面有出现了很多其他的分词器。参考技术Aik分词器简单容易控制啊,反正我个人觉得ik不错 查看详情

solr8.0ik中文分词器的简单配置(代码片段)

下载ik分词器,由于是solr8.0,一些ik分词器版本可能不兼容,以下是个人亲测可行的版本链接:https://pan.baidu.com/s/1_Va-9af-jMcqepGQ9nWo3Q提取码:0a3y然后将解压出来的两个jar包放到以下路径: 其它的三个文件放到以下路径:如果... 查看详情

elasticsearch拼音分词和ik分词的安装及使用(代码片段)

...、Es插件配置及下载1.IK分词器的下载安装关于IK分词器的介绍不再多少,一言以蔽之,IK分词是目前使用非常广泛分词效果比较好的中文分词器。做ES开发的,中文分词十有八九使用的都是IK分词器。下载地址:https://github.com/medcl/el... 查看详情

ubuntu安装es(elesticsearch),es结构介绍,ik分词器的简单使用,es入门增删改查api,结果集高亮(代码片段)

1-下载安装包大家可以自己选择一个版本安装https://www.elastic.co/cn/downloads/past-releases/elasticsearch-6-3-0解压后再bin下启动es,然后内存不满足es的要求启动报错了./elasticsearch临时解决方案(重启失效),在root下sysctl-wvm.max_map_... 查看详情

lucene_07_solr使用ik分词器(代码片段)

使用IKAnalyzer中文分析器。.第一步:把,IKAnalyzer2012FF_u1j添加到sol/WEB-INF/lib目录下。第二步:复制IKAnalyzer的配置文件和自定义词典和停用词词典到solr的classpath(classes),即solr\WEB-INF\classes下。第三步:在solr家目录中的schema.xml中添加一... 查看详情

solr集成ik中文分词器

1、将IKAnalyzer-2012-4x.jar拷贝到examplesolr-webappwebappWEB-INFlib下;2、在schema.xml文件中添加fieldType:<fieldTypename="text_ik"class="solr.TextField">      <analyzercla 查看详情

ik分词器能不能自己增加关键字怎么操作

为什么呢看因为Lucene自带的分词器比较适合英文的分词,而IK首先是一个中文的分词器。具体的优点先不细说,单说分词的结果来看:1比如说我爱北京使用自带的分词我/爱/北/京IK分词我/爱/北京2可以自己扩展词典有很多分词器... 查看详情

搜索引擎系列四:lucene提供的分词器ikanalyze中文分词器集成(代码片段)

一、Lucene提供的分词器StandardAnalyzer和SmartChineseAnalyzer1.新建一个测试Lucene提供的分词器的maven项目LuceneAnalyzer2.在pom.xml里面引入如下依赖<!--lucene核心模块--><dependency><groupId>org.apache.lucene</groupId> 查看详情

2021年大数据elk:lucene的美文搜索案例(代码片段)

...案例2021年大数据ELK(三):Lucene全文检索库介绍2021年大数据ELK(二): Elasticsearch简单介绍2021年大数据ELK(一& 查看详情

lucene使用ikanalyzer分词实例及ikanalyzer扩展词库

...ml 方案一: 基于配置的词典扩充项目结构图如下:IK分词器还支持通过配置IKAnalyzer.cfg.xml文件来扩充您的专有词典。谷歌拼音词库下载: http://ishare.iask.sina.com.cn/f/14446921 查看详情

solrsolr实现简单的类似百度搜索高亮功能-1.配置ik分词器

配置Ik分词器一效果图   二实现此功能需要添加分词器,在这里使用比较主流的IK分词器。1没有配置IK分词器,用solr自带的text分词它会把一句话分成单个的字。2 配置IK分词器,的话它会把句子分成词组三下载配置... 查看详情

elasticsearch介绍及安装部署

本节内容:Elasticsearch介绍Elasticsearch集群安装部署Elasticsearch优化安装插件:中文分词器ik 一、Elasticsearch介绍Elasticsearch是一个分布式搜索服务,提供RestfulAPI,底层基于Lucene,采用多shard的方式保证数据安全,并且提供自动resha... 查看详情

solr添加中文ik分词器,以及配置自定义词库

Solr是一个基于Lucene的Java搜索引擎服务器。Solr 提供了层面搜索、命中醒目显示并且支持多种输出格式(包括 XML/XSLT 和 JSON 格式)。它易于安装和配置,而且附带了一个基于HTTP 的管理界面。Solr已经在众多... 查看详情

30.ik中文分词器的安装和简单使用

在之前我们学的都是英文,用的也是英文的standard分词器。从这一节开始,学习中文分词器。中国人基本上都是中文应用,很少是英文的,而standard分词器是没有办法对中文进行合理分词的,只是将每个中文字符一个一个的切割... 查看详情

elasticsearch入门之从零开始安装ik分词器

起因需要在ES中使用聚合进行统计分析,但是聚合字段值为中文,ES的默认分词器对于中文支持非常不友好:会把完整的中文词语拆分为一系列独立的汉字进行聚合,显然这并不是我的初衷。我们来看个实例:POSThttp://192.168.80.133:... 查看详情