MongoDB|MongoDB 分组统计的几种实现方法

最近捞了一些数据出来,要进行分组统计,统计A字段中相同值的个数。
我使用的是mongoose进行操作。
由于不太熟悉MongoDB的操作,走了不少弯路,之前记得是可以用 aggregate 方法进行分组统计,结果吃了菜鸟亏,不知道各种参数说明意思,一开始没搞出来,就在网上搜:
方法一: mapReduce 方法 一搜就搜出 mapReduce 这样一个方法可以用,于是就开始动手:
先贴搜索结果文章:亿万数据量级mongoDB中高效查找同一字段的所有不同值集合
开始动手:

kaijiangModel.mapReduce({ /** * map函数的作用是遍历集合,调用emit函数将集合中opencode、expect字段以键值对的形式传递给reduce函数 */ map: function(){ emit(this.opencode, this.expect) }, /** * reduce函数的作用对map函数传递过来的键值对进行处理, 每个键值对中 * key是opencode字段的值,values是具有相同opencode的expect的数组。 **/ reduce: function(key, values){ return {acc: values.length} } },function(err, result){ if(err) { console.log('------ mapreduce error ------') return } result.results.sort((a,b)=>b.value.acc-a.value.acc); fs.writeFile('./'+Date.now()+'.json',JSON.stringify(result),()=>{}) })

以上注释为原文作者的讲解,然后我按我的理解做了。
既然他说reduce函数接收的第二个参数values是具有相同opencode的except的数组,那这个数组的长度不久是我所想要的统计数了吗。所以就返回了values.length 然后结果出来了,顿时舒了口气,搞出来了,开心。。。可是仔细看看,怎么数据有点不对劲呀,结果去数据库了随便拿一个opencode来查一下,查出来的数量对不上呀,前功尽弃了。
继续想办法。。。。
方法二: 自己动手,丰衣足食 然后就想了一个笨办法,就是把数据拿出来自己统计,然后就有了下面的代码:
kaijiangModel.find((err, doc)=>{ console.log(doc.length) let count = doc.reduce((acc, cur) => { if (typeof acc[cur.opencode] !== 'undefined'){ acc[cur.opencode] += 1 }else{ acc[cur.opencode] = 1 } return acc },{}) count = Object.keys(count).map(key => ({opencode:key,acc: count[key]})) count.sort((a, b) => b.acc-a.acc) console.log(count.length, count.reduce((acc, cur)=>acc+cur.acc, 0)) fs.writeFile('./'+Date.now()+"_2.json",JSON.stringify(count),()=>{}) })

OK,数据出来,对一下数据库,完全正确,大功告成。
方法三 回到开篇:aggregate 不过这样要先把数据拿下来,自己再算,这显然不是我们想要的,能不能数据库里算好来给我呢?那就回到文章开头说的那个 aggregate 了,看网上文档,亏在不想看英文文档,而且官网文档也讲得不详细(可能是我英文水平不要吧)。
后来终于在某网站上的到一本数《MONGODB实战 第2版》,在里面找到了有关聚合的详细介绍,终于搞懂了 aggregate 里面是怎么回事了(其实只是肤浅的了解了一下,能解决我的问题就OK了)。
最终写出了下面的代码:
kaijiangModel.aggregate([ {$match:{opentime: {$lt: new Date()}}}, {$group:{ _id: '$opencode', acc:{$sum: 1} }}, {$sort: {acc: -1}} ]).then(res=>{ fs.writeFile('./'+Date.now()+"_3.json",JSON.stringify(res),()=>{}) })

【MongoDB|MongoDB 分组统计的几种实现方法】得出结果依然正确,给个赞,哈哈。

    推荐阅读