lucene相关内容
æ、ø、å 是挪威字母表中最新的字母 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z Æ Ø Å 当我们尝试使用 Hibernate Lucene 对其进行排序时,然后 Å clubs with A、Ø clubs with Ø、Æ clibs with A 即错误的.例如: 当前结果: 阿鲁,奥阿鲁,巴鲁,扎鲁, 预期
..
我需要返回不包含具有特定 ID 的文档的结果.Elasticsearch 允许我们指定允许使用哪些 id,但我认为没有办法禁止某些 id.就我而言,我不想返回用户已经看过的东西,因此每个用户的列表都会有所不同. 解决方案 您可以通过添加一个 bool/must_not 过滤器来实现此目的,该过滤器包含一个 ids 过滤器和一个数组你不想出现的id,像这样: {“询问": {“布尔":{“
..
这是我的情况; 我的架构中有一个名为 elmo_field 的字段.我希望 elmo_field 应该有有效载荷的值.即 dorothy|0.46 芝麻|0.37 大鸟|0.19 鸟|0.22 当用户搜索关键字时,即 dorothy 我想在通常的分数上加 0.46.如果用户搜索 big bird,则应添加 0.19,如果用户搜索 bird,则应添加 0.22(添加有效负载 - 或添加有效
..
我正在使用新发布的 Lucene 4,并且我了解与文档术语向量相关的 API 发生了很大变化.我已经阅读了迁移文档和相关的各种博客邮件列表帖子,并且我相信我正确使用了 API.但是,我总是从 IndexReader.getTermVector() 得到一个空术语引用.这就是我正在做的事情: //索引,给定“bodyString"作为包含文档文本的字符串文档文档 = 新文档();doc.add(n
..
是否可以在 elasticsearch 中为字段名称设置别名?(就像索引名称的别名一样) 例如:我有一个文档 {'firstname': 'John', 'lastname': 'smith'} 我想将 'firstname' 别名为 'fn'... 解决方案 只是一个快速更新,Elasticsearch 6.4 提出了一个名为 别名数据类型.检查以下映射和查询作为示例.
..
假设我有一千个键,我想存储相关的值.直观的方法似乎类似于 {“key1":“一些","key2":"someotherval",...} 对于具有数千个键的弹性搜索索引来说,这是一种糟糕的设计模式吗?以这种方式引入的每个键是否会为索引下的每个文档产生开销? 解决方案 如果您知道您将拥有的键数量有上限,那么几千个字段不是问题. 问题是当你有一组无限的键时,例如当键从一个值派生时,您
..
在对每个关键字应用 boost 功能后,给定搜索关键字 一二三 的 ES 搜索结果似乎是错误的.请帮我修改我的“错误"查询,以便按照我的描述完成下面的“预期结果".我在 ES 1.7.4 和 LUCENE 4.10.4 提升标准 -三个 被认为是最重要的关键字: word - 提升---- -----一个 1两个 2三 3 ES 索引内容 - 只显示 MySQL 转储以缩短帖子 mys
..
我有 2 个 lucene 查询: 1) Term term = new Term(Properties.LUCENE_APPARTMENT_ADDRESS,address);查询 termQuery = new TermQuery(term);TopDocs topDocs = indexSearcher.search(termQuery, 20); 和2) QueryParser
..
我想在 lucene 项目中使用 WikipediaTokenizer - http://lucene.apache.org/java/3_0_2/api/contrib-wikipedia/org/apache/lucene/wikipedia/analysis/WikipediaTokenizer.html 但我从未使用过 lucene.我只想将维基百科字符串转换为令牌列表.但是,我看到这个类
..
我有一个现有的 lucene 索引文件索引和用于执行搜索功能的 java 代码. 我想做的是在服务器上执行相同的操作,这样应用程序的用户可以简单地传递一个查询,该查询将被 java 程序作为输入参数,并针对现有索引运行它以返回文档它发生在哪里. 所有实现都在我的本地电脑上测试过,但我需要做的是在 Android 应用中实现它. 到目前为止,我已经阅读并得出结论,将代码移植到 AW
..
我在我的项目中使用 Lucene,我需要一个自定义分析器. 代码是: public class MyCommentAnalyzer 扩展 Analyzer {@覆盖protected TokenStreamComponents createComponents(String fieldName, Reader reader) {Tokenizer source = new Standard
..
我正在构建一个搜索数据库并显示结果的 C# Windows 窗体应用程序.我正在尝试找到有关如何使用 Lucene 创建构面的指南,但似乎我做不到.我正在创建索引,并且可以搜索数据库,但我想为结果创建方面.是否有任何指南或项目可用作示例? EDIT这是到目前为止我的项目的链接https://github.com/assignment128A-adopse/Assignment 任何帮助
..
我正在尝试使用 Lucene 2.9.4 编写一个简单的程序来搜索短语查询,但我得到 0 次点击 公共类 HelloLucene {public static void main(String[] args) 抛出 IOException,ParseException{//TODO 自动生成的方法存根StandardAnalyzer 分析器 = new StandardAnalyzer(Vers
..
我有一个场景,我必须使用 Azure 搜索使用供应商名称来搜索供应商.例如下面是供应商列表. Infosys 技术有限公司 Infosys BPM 有限公司 信息解决方案 Infosys 企业技术 戴尔电脑 第一信息系统 我的搜索场景是 当 Searchtext 为 Info 时,它应该返回 1,2,3,4 当 Searchtext 为 Infosys 时,它应该返回
..
我有以下代码 静态类 TaggerAnalyzer 扩展分析器 {@覆盖protected TokenStreamComponents createComponents(String s, Reader reader) {SynonymMap.Builder builder = new SynonymMap.Builder(true);builder.add(new CharsRef("al")
..
我在 org.apache.lucene.analysis.synonym 中找到了 WordnetSynonymParser 类,但在 API 和 google 中都没有使用示例.有谁有这方面的经验吗? 谢谢! 编辑:我知道以前有类 SynExpand,但是在 3.6 版本中它消失了... 我试试: 尝试 {FileReader rulesReader = new File
..
标题问一切...我想在 Lucene 中进行多字段短语搜索.. 怎么做? 例如:我的字段为 String s[] = {"title","author","content"}; 我想在所有领域搜索 harry potter.我该怎么做? 有人可以提供一个示例片段吗? 解决方案 使用 MultiFieldQueryParser,它的 一个 QueryParser 构造查询以
..
我在 solr schema.xml 中有一个字段 和字段类型
..
我正在一个项目中工作,该项目在 Lucene 中有大量数据.我们需要显示分面搜索,并且在尝试使用常规 Lucene 访问来模拟它时,它所需的时间是不可接受的. 我一直在阅读Solr,但是教程对这个基本点不是很清楚: 使用 Solr 和 Lucene 以相同的方式存储数据吗?我的意思是,我可以使用 Solr 访问我在 Lucene 中存储的数据,还是必须进行数据迁移? 解决方案
..
我有一个 Java 程序,它接收一个包含文本文件列表的文本文件,并分别处理每一行.为了加快处理速度,我使用带有 24 个线程的 FixedThreadPool 的 ExecutorService 线程.该机器有 24 个内核和 48GB 内存. 我正在处理的文本文件有 250 万行.我发现对于前 230 万行左右的内容,在 CPU 利用率很高的情况下运行得非常好.然而,超过某个点(大约 2.
..