MongoDB 聚合分组取第一条记录的案例及实现

MongoDB 聚合分组取第一条记录的案例及实现,第1张

概述关键字:MongoDB; aggregate;forEach 今天开发同学向我们提了一个紧急的需求,从集合mt_resources_access_log中,根据字段refererDomain分组,取分

关键字:MongoDB; aggregate;forEach

今天开发同学向我们提了一个紧急的需求,从集合mt_resources_access_log中,根据字段refererDomain分组,取分组中最近一笔插入的数据,然后将这些符合条件的数据导入到集合mt_resources_access_log_new中。

接到这个需求,还是有些心虚的,原因有二,一是,业务需要,时间紧;二是,实现这个功能MongoDB聚合感觉有些复杂,聚合要走好多步。

数据记录格式如下:

记录1{    "_ID" : ObjectID("5c1e23eaa66bf62c0c390afb"),"_class" : "C1","resourceUrl" : "/static/Js/p.Js","refererDomain" : "1234","resourceType" : "static_resource","ip" : "17.17.13.132018-12-22T19:45:46.015+08:00"),"Disabled" : 0}记录2{    "_ID" : ObjectID("5c1e23eaa66bf62c0c390afb"),"resourceType" : "Dome_resource",1); Font-weight: bold">13.14-21T19:}记录3{    "_ID" : ObjectID("5c1e23eaa66bf62c0c390afb"),"_class" : "C2",1); Font-weight: bold">1235-20T19:}

记录4{    "_ID" : ObjectID("5c1e23eaa66bf62c0c390afb"),"resourceUrl" : "/static/Js/p.Js","refererDomain" : "1235","ip" : "17.17.13.13","createTime" : ISODate("2018-12-20T19:45:46.015+08:00"),"Disabled" : 0}
 

以上是我们的4条记录,类似的记录文档有1500W。

因为情况特殊,业务发版需要这些数据。催的比较急,而 通过 聚合 框架aggregate,短时间有没有思路, 所以,当时就想着尝试采用其他方案。

最后,问题处理方案如下。

Step 1  通过聚合框架 根据条件要求先分组,并将新生成的数据输出到集合mt_resources_access_log20190122 中(共产生95笔数据);

实现代码如下:

db.log_resources_access_collect.aggregate(                     [                                             { $group: { _ID: "$refererDomain" } },{ $out : "mt_resources_access_log20190122" }                     ]                     )

Step 2  通过2次 forEach *** 作,循环处理 mt_resources_access_log20190122和mt_resources_access_log的数据。

代码解释,处理的逻辑为,循环逐笔取出mt_resources_access_log20190122的数据(共95笔),每笔逐行加工处理,处理的逻辑主要是  根据自己的_ID字段数据(此字段来自mt_resources_access_log聚合前的refererDomain字段), 去和 mt_resources_access_log的字段 refererDomain比对,查询出符合此条件的数据,并且是按_ID 倒序,仅取一笔,最后将Join刷选后的数据Insert到集合mt_resources_access_log_new。

新集合也是95笔数据。

大家不用担心性能,查询语句在1S内实现了结果查询。

db.mt_resources_access_log20190122.find({}).forEach(    function(x) {        db.mt_resources_access_log.find({ "refererDomain": x._ID }).sort({ _ID: 1 }).limit(1).forEach(            (y) {                db.mt_resources_access_log_new.insert(y)            }        )    })

 

Step 3 查询验证新产生的集合mt_resources_access_log_new,结果符合业务要求。 

刷选前集合mt_resources_access_log的数据量为1500多W。

刷选后产生新的集合mt_resources_access_log_new 数据量为95笔。

 

注意:根据时间排序的要求,因为部分文档没有createTime字段类型,且 createTime字段上没有创建索引,所以未了符合按时间排序我们采用了sort({_ID:1})的变通方法,因为_ID 还有时间的意义。下面的内容为MongoDB对应_ID 的相关知识。

最重要的是前4个字节包含着标准的Unix时间戳。后面3个字节是机器ID,紧接着是2个字节的进程ID。最后3个字节存储的是进程本地计数器。计数器可以保证同一个进程和同一时刻内不会重复。

 

本文版权归作者所有,未经作者同意不得转载,谢谢配合!!!

总结

以上是内存溢出为你收集整理的MongoDB 聚合分组取第一条记录的案例及实现全部内容,希望文章能够帮你解决MongoDB 聚合分组取第一条记录的案例及实现所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/sjk/1152029.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2022-05-31
下一篇2022-05-31

发表评论

登录后才能评论

评论列表(0条)

    保存