
使用terms聚合可以解决去重的问题 然后嵌套使用top hits聚合在每个分组中得到一个文档
如果是,elasticsearch多个索引类型搜索时有重复的数据怎么去重:
这个一般都是在索引时指定唯一ID来杜绝重复的情况,搜索的时候去重的话:
建议你在索引数据时指定数据的唯一标识作为索引_id,这样即使你以后再添加N遍这条数据,也不会出现重复的情况。
希望对你有帮助
上一篇 <<<Linux环境安装Elasticsearch集群下一篇 >>>Logstash-input-jdbc实现ES和数据同步 *** 作步骤
推荐阅读:
<<<Elasticsearch入门知识
<<<Elasticsearch快速原因分析及应用场景
<<<Elasticsearch的存储结构端口及版本控制
<<<Elasticsearch文档映射方式
<<<Elasticsearch的基本及复杂数据类型
<<<Elasticsearch的简易版及结构化查询语句
<<<Elasticsearch默认分词器对中文分词不友好
<<<Elasticsearch自定义分词和分词器
<<<正向索引和倒排索引区别
<<<Elasticsearch中的类型区别汇总
<<<Elasticsearch是如何解决高并发问题
<<<Elasticsearch集群相关名词
<<<Elasticsearch集群及分片实现原理
<<<SpringBoot整合Elasticsearch
<<<Linux环境安装Elasticsearch
<<<Linux环境安装Elasticsearch集群
<<<Logstash-input-jdbc实现ES和数据同步 *** 作步骤
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)