mapreduce的|mapreduce的 combiner 和groupping comparator
combiner: 问题提出:
众所周知,Hadoop框架使用Mapper将数据处理成一个
目标:
Mapreduce中的Combiner就是为了避免map任务和reduce任务之间的数据传输而设置的,Hadoop允许用户针对map task的输出指定一个合并函数。即为了减少传输到Reduce中的数据量。它主要是为了削减Mapper的输出从而减少网络带宽和Reducer之上的负载。
数据格式转换:
map: (K1, V1) → list(K2,V2)
combine: (K2, list(V2)) → list(K3, V3)
reduce: (K3, list(V3)) → list(K4, V4)
注意:combine的输入和reduce的完全一致,输出和map的完全一致
使用注意:
对于Combiner有几点需要说明的是:
1)有很多人认为这个combiner和map输出的数据合并是一个过程,其实不然,map输出的数据合并只会产生在有数据spill出的时候,即进行merge操作。
2)与mapper与reducer不同的是,combiner没有默认的实现,需要显式的设置在conf中才有作用。
3)并不是所有的job都适用combiner,只有操作满足结合律的才可设置combiner。combine操作类似于:opt(opt(1, 2, 3), opt(4, 5, 6))。如果opt为求和、求最大值的话,可以使用,但是如果是求中值的话,不适用。
4)一般来说,combiner和reducer它们俩进行同样的操作。
但是:特别值得注意的一点,一个combiner只是处理一个结点中的的输出,而不能享受像reduce一样的输入(经过了shuffle阶段的数据),这点非常关键。具体原因查看下面的数据流解释:
【mapreduce的|mapreduce的 combiner 和groupping comparator】融合combiner的数据流
文章图片
插入了Combiner的MapReduce数据流
Combiner:前面展示的流水线忽略了一个可以优化MapReduce作业所使用带宽的步骤,这个过程叫Combiner,它在Mapper之后Reducer之前运行。Combiner是可选的,如果这个过程适合于你的作业,Combiner实例会在每一个运行map任务的节点上运行。Combiner会接收特定节点上的Mapper实例的输出作为输入,接着Combiner的输出会被发送到Reducer那里,而不是发送Mapper的输出。Combiner是一个“迷你reduce”过程,它只处理单台机器生成的数据(特别重要,作者在做一个矩阵乘法的时候,没有领会到这点,把它当成一个完全的reduce的输入数据来处理,结果出错。)。
词频统计是一个可以展示Combiner的用处的基础例子,上面的词频统计程序为每一个它看到的词生成了一个(word,1)键值对。所以如果在同一个文档内“cat”出现了3次,(”cat”,1)键值对会被生成3次,这些键值对会被送到Reducer那里。通过使用Combiner,这些键值对可以被压缩为一个送往Reducer的键值对(”cat”,3)。现在每一个节点针对每一个词只会发送一个值到reducer,大大减少了shuffle过程所需要的带宽并加速了作业的执行。这里面最爽的就是我们不用写任何额外的代码就可以享用此功能!如果你的reduce是可交换及可组合的,那么它也就可以作为一个Combiner。你只要在driver中添加下面这行代码就可以在词频统计程序中启用Combiner。
grouping comparator:
问题 有如下的订单数据,想要查询出每一个订单中的最贵的商品
Order_0000001Pdt_01222.8
Order_0000001Pdt_01222.8
Order_0000002Pdt_03522.8
Order_0000003Pdt_01222.8
Order_0000004Pdt_01222.8
Order_0000004Pdt_0525.8
Order_0000005Pdt_03522.8
Order_0000006Pdt_04122.4
Order_0000007Pdt_05722.4
Order_0000007Pdt_01222.8
Order_0000001Pdt_0525.8
Order_0000002Pdt_04122.4
Order_0000002Pdt_05722.4
解决方法
第一种解决方法 在Map端读取数据,构造出相应的OrderBean对象,以Order_id为key,OrderBean为Value将数据输出
在Reduce端读取出相同的order_id的所有的OrderBean进行排序
缺点
需要自己进行排序,没有利用好Shuffle过程中的排序,效率较低
第二种解决方案 在Shuffle的过程中是会进行排序的,我们需要充分利用它
首先,排序的时候,只是会对key进行排序,所以我们需要将OrderBean作为我们的Key输出到Reduce
文章图片
问题:
第一,不同的Order的对象可能会被分配到不同的reduce端,所以我们需要自定义分区方法,对order对象进行分区
第二,不同的Order对象是无法像一样将
解决问题:
针对第一个问题:
自己定义Partitioner类,根据order_id进行hashcode%numTasks
针对第二个问题:
自己定义一个GroupComparator类,根据order_id划分组,将order_id相同的划分到同一个组中
注意,这边进行判断的时候,当compare方法返回一个非0的时候,就会认为两个对象不是在同一个组中的
注意,它是一次判断两个连续的对象,即如果有一串对象
java代码
public class OrderProduct implements WritableComparable
public class FindCostMaxProduct {
public static void main(String[] args) throws Exception {Configuration configuration = new Configuration();
Job job = Job.getInstance(configuration);
job.setJarByClass(FindCostMaxProduct.class);
job.setMapperClass(FindCostMaxProductMapper.class);
job.setMapOutputKeyClass(OrderProduct.class);
job.setMapOutputValueClass(NullWritable.class);
//job.setNumReduceTasks(7);
job.setGroupingComparatorClass(OrderGroupComparator.class);
//
job.setPartitionerClass(OrderPartitioner.class);
job.setReducerClass(FindCostMaxProductReducer.class);
job.setOutputKeyClass(OrderProduct.class);
job.setOutputValueClass(NullWritable.class);
FileInputFormat.setInputPaths(job,new Path("F:\\hdp\\order\\input"));
FileOutputFormat.setOutputPath(job,new Path("F:\\hdp\\order\\output"));
job.waitForCompletion(true);
}
}class FindCostMaxProductMapper extends Mapper
推荐阅读
- 热闹中的孤独
- JAVA(抽象类与接口的区别&重载与重写&内存泄漏)
- 放屁有这三个特征的,请注意啦!这说明你的身体毒素太多
- 一个人的旅行,三亚
- 布丽吉特,人生绝对的赢家
- 慢慢的美丽
- 尽力
- 一个小故事,我的思考。
- 家乡的那条小河
- 《真与假的困惑》???|《真与假的困惑》??? ——致良知是一种伟大的力量