如何对一个Document的不同Filed使用不同的分词器
TonyLian
2010-01-25
如题。
对于文章正文,希望使用中文分词器。 而用户在提交文件时让其输入的文章关键字,多个用空格分开,则希望使用WhitespaceAnalyzer进行分词并保存。 doc.add(new Field("TXT",text, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("KEYWORD", keyWord, Field.Store.YES, Field.Index.ANALYZED)); |
|
luckaway
2010-01-26
自己实现分词器! 研究下lucene相关的代码,还是蛮简单的!
|
|
illu
2010-01-26
可以使用PerFieldAnalyzerWrapper
//默认为庖丁分词 PerFieldAnalyzerWrapper wrapper = new PerFieldAnalyzerWrapper(new PaodingAnalyzer()); //fieldName 为field名称 //analyzer field对应分词器 wrapper.addAnalyzer(fieldName, analyzer); |
|
TonyLian
2010-01-26
illu 写道 可以使用PerFieldAnalyzerWrapper
//默认为庖丁分词 PerFieldAnalyzerWrapper wrapper = new PerFieldAnalyzerWrapper(new PaodingAnalyzer()); //fieldName 为field名称 //analyzer field对应分词器 wrapper.addAnalyzer(fieldName, analyzer); 大开眼界呀!去研究一下~ |
相关讨论
相关资源推荐
- Lucene 常用filed 使用 与索引库维护
- Lucene使用IKAnalyzer分词实例 及 IKAnalyzer扩展词库
- “Elasticsearch + Kibana + ik分词器“介绍与使用
- solr7.5的基本使用(数据导入,增量索引,中文分词器)
- Elasticsearch安装IK分词器,kibana安装是基本使用,DSL语句入门
- Lucene.Net+盘古分词器(详细介绍)
- SpringBoot集成ES 7.6.2 并对字段进行中文和拼音分词处理
- python做一个本地搜索_用python做一个搜索引擎(Pylucene)的实例代码
- ElasticSearch03_Mapping字段映射、常用类型、数据迁移、ik分词器、自定义分词器
- 商城项目18_esMapping字段映射、常用类型、数据迁移、ik分词器、自定义分词器