solr8.0ik中文分词器的简单配置(代码片段)

itdreamer itdreamer     2023-03-12     471

关键词:

下载ik分词器,由于是solr8.0,一些ik分词器版本可能不兼容,以下是个人亲测可行的版本

链接:https://pan.baidu.com/s/1_Va-9af-jMcqepGQ9nWo3Q
提取码:0a3y

然后将解压出来的两个jar包放到以下路径:

技术图片

 

其它的三个文件放到以下路径:

技术图片

如果没有classes文件夹就创建一个

 

然后进行ik分词器的配置,编辑以下路径的managed-schema文件

技术图片

 

将以下配置放到后边

<!-- ik分词器 -->
    <fieldType name="text_ik" class="solr.TextField">
    <!-- 索引分词器 -->
    <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
    <!-- 查询分词器 -->
    <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
    </fieldType>
    

 

到这里ik分词器就配置好了,如果需要设置扩展字典和扩展停止字典,只需要编辑下列路径的ext(扩展字典)和stopword(扩展停止字典)文件就行了

技术图片

 

elasticsearch中文分词器详解(代码片段)

1.es安装中文分词器官网:https://github.com/medcl/elasticsearch-analysis-ik1.1.安装中文分词器安装中文分词器的要求:​1.分词器的版本要与es的版本一直​2.所有es节点都需要安装中文分词器​3.安装完分词器需要重启1.在线安装[root@elastics... 查看详情

solr7.7.0配置中文分词器的数据类型(代码片段)

1<dynamicFieldname="*_is"type="pints"indexed="true"stored="true"/>2<dynamicFieldname="*_s"type="string"indexed="true"stored="true"/>3<dynamicFieldname="*_ss"type="strings"indexed="true"stored="true"/>4<dynamicFieldname="*_l"type="plong"indexed="true"stored="true"/>5<dynami... 查看详情

elasticsearch拼音分词和ik分词的安装及使用(代码片段)

...言以蔽之,IK分词是目前使用非常广泛分词效果比较好的中文分词器。做ES开发的,中文分词十有八九使用的都是IK分词器。下载地址:https://github.com/medcl/elasticsearch-analysis-ik2.pinyin分词器的下载安装可以在淘宝、京东的搜索框中输... 查看详情

30.ik中文分词器的安装和简单使用

...文,用的也是英文的standard分词器。从这一节开始,学习中文分词器。中国人基本上都是中文应用,很少是英文的,而standard分词器是没有办法对中文进行合理分词的,只是将每个中文字符一个一个的切割开来,比如说中国人-->... 查看详情

esik中文分词器的安装(代码片段)

ik分词是一款流行的elasticsearch中文分词器,安装ik分词器版本一定要与所安装es版本一致。 安装步骤:1、解压ik分词器安装包到plugin目录下,并删除压缩包。2、重启elasticsearch进程即可。3、如果是es集群的话,每台es都需要安... 查看详情

elasticsearchik中文分词器的安装配置使用

安装步骤 https://github.com/medcl/elasticsearch-analysis-ik 以插件形式安装:[[email protected]elasticsearch-5.6.5]$./bin/elasticsearch-plugininstallhttps://github.com/medcl/elasticsearch-analysis-i 查看详情

solr05-solr在实际开发中的应用(代码片段)

目录1配置中文分词器1.1准备IK中文分词器1.2配置schema.xml文件1.2.1加入使用IK分词器的域类型1.2.2加入使用IK分词器的域1.3重启Tomcat并测试2配置业务域2.1准备商品数据2.2配置商品业务域2.3配置schema.xml文件2.4重新启动Tomcat并查看配置3... 查看详情

elasticsearch安装elasticsearch-analysis-ik中文分词器(代码片段)

1,讲分词器的文件夹放入es安装包的plugins,重新启动elasticsearch//查询es运行中的进程pidps-aux|grepelasticsearch//杀死进程kill-9pid//使用es账户启动nohup./elasticsearch&2,重启es,然后在新建index的type表结构时,需要指定将来可能要使用... 查看详情

elasticsearch安装elasticsearch-analysis-ik中文分词器(代码片段)

1,讲分词器的文件夹放入es安装包的plugins,重新启动elasticsearch//查询es运行中的进程pidps-aux|grepelasticsearch//杀死进程kill-9pid//使用es账户启动nohup./elasticsearch&2,重启es,然后在新建index的type表结构时,需要指定将来可能要使用... 查看详情

elasticsearch分词器的使用与ik分词器安装(代码片段)

Elasticsearch分词器安装与使用ES内置分词器standard:默认分词器,简单会被拆分,英文统一转换为小写simlle:按照非字母分词,英文统一转换为小写whitespace:按照空格分词stop:去除无意义的单词,比... 查看详情

restful认识和ik分词器的使用(代码片段)

什么是Restful风格Restful是一种面向资源的架构风格,可以简单理解为:使用URL定位资源,用HTTP动词(GET,POST,DELETE,PUT)描述操作。使用Restful的好处:透明性,暴露资源存在。充分利用HTTP协议本身语义。无状态,这点非常重要。在... 查看详情

elasticsearch搜索引擎安装配置中文分词器ik插件(代码片段)

...默认的分词器是标准分词器Standard,如果直接使用在处理中文内容的搜索时,中文词语被分成了一个一个的汉字,因此引入中文分词器IK就能解决这个问题,同时用户可以配置自己的扩展字典、远程扩展字典等。 二、IK安装1... 查看详情

搜索引擎系列四:lucene提供的分词器ikanalyze中文分词器集成(代码片段)

一、Lucene提供的分词器StandardAnalyzer和SmartChineseAnalyzer1.新建一个测试Lucene提供的分词器的maven项目LuceneAnalyzer2.在pom.xml里面引入如下依赖<!--lucene核心模块--><dependency><groupId>org.apache.lucene</groupId> 查看详情

solr4.9中文分词配置

参考技术A下面这篇文章是介绍如何在solr4.9中配置solr自带的中文分词器的,可以参考一下。http://www.cnblogs.com/qiyebao/p/3888181.html 查看详情

sphinx的安装配置和中文分词包coreseek(代码片段)

...tp://sphinxsearch.com/downloads/release/本次我下的是2.2.4版本自持中文分词的包叫做coreseek,其实就是带了中文分词插件的sphinx,在此处下载:http://www.coreseek.cn/本次我下的是稳定版3.2.14先写个结论,sphinx本身是 查看详情

ik分词器的安装与使用ik分词器创建索引(代码片段)

之前我们创建索引,查询数据,都是使用的默认的分词器,分词效果不太理想,会把text的字段分成一个一个汉字,然后搜索的时候也会把搜索的句子进行分词,所以这里就需要更加智能的分词器IK分词器了。ik分词器的下载和安... 查看详情

python中文分词库——jieba的用法(代码片段)

1.介绍jieba是优秀的中文分词第三方库。由于中文文本之间每个汉字都是连续书写的,我们需要通过特定的手段来获得其中的每个单词,这种手段就叫分词。而jieba是Python计算生态中非常优秀的中文分词第三方库,需要通过安装来... 查看详情

elasticsearch中文分词器对比

...们的分词准确性从高到低依次是:结合准确性来看,选用中文分词器基于以下考虑:截止目前,IK分词器插件的优势是支持自定义热更新远程词典。IK分词器的github地址:hanlp中文分词器的官网为:hanlp中文分词器的github地址为: 查看详情