Hadoop| MapperReduce② 框架原理

宁可枝头抱香死,何曾吹落北风中。这篇文章主要讲述Hadoop| MapperReduce② 框架原理相关的知识,希望能为你提供帮助。
 
MapReduce框架原理

Hadoop| MapperReduce② 框架原理

文章图片

MapReduce核心思想
  • 1)分布式的运算程序往往需要分成至少2个阶段。
  • 2)第一个阶段的MapTask并发实例,完全并行运行,互不相干。
  • 3)第二个阶段的ReduceTask并发实例互不相干,但是他们的数据依赖于上一个阶段的所有MapTask并发实例的输出。
  • 4)MapReduce编程模型只能包含一个Map阶段和一个Reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个MapReduce程序,串行运行。
1. InputFormat(切片| 把切片变成k,v值)数据输入
一. 默认的FileInputFormat--TextInputFormat
public abstract class FileInputFormat< K, V> extends InputFormat< K, V> public class TextInputFormat extends FileInputFormat< LongWritable, Text> Rich leaning form--每条记录对应的键值对---> (0,Rich leaning form )
@Override public RecordReader< LongWritable, Text> createRecordReader(InputSplit split,TaskAttemptContext context) { String delimiter = context.getConfiguration().get("textinputformat.record.delimiter"); byte[] recordDelimiterBytes = null; if (null != delimiter) recordDelimiterBytes = delimiter.getBytes(Charsets.UTF_8); return new LineRecordReader(recordDelimiterBytes); }

默认切片规则的实现类FileInputFormat;默认把切片变成key,value值的实现类为TextInputFormat(按行读取每条记录,键是存储该行在整个文件中的起始偏移量,LongWritable类型;值是这行内容 Text类
型),它返回的RecordReader类型为LineRecordReader。
MapTask的数量是由InputFormat来指定的,InputFormat生成多少个InputSpilt切片数就会有多少个task。
切片与MapTask并行度决定机制
MapTask的并行度决定Map阶段的任务处理并发度,进而影响到整个Job的处理速度。
MapTask并行度决定机制
数据块:Block是HDFS物理上把数据分成一块一块。
数据切片:数据切片只是在逻辑上对输入进行分片,并不会在磁盘上将其切分成片进行存储。
Hadoop| MapperReduce② 框架原理

文章图片

yarn优化策略,本地启动任务启动MapTask,尽量不产生网络IO;按照一个个文件来切,判断是否大于128M;切片数量默认> =文件数量。
切片的原理FileInputFormat切片源码解析
Hadoop| MapperReduce② 框架原理

文章图片

 
Hadoop| MapperReduce② 框架原理

文章图片

FileInputFormat切片大小参数设置
Hadoop| MapperReduce② 框架原理

文章图片

Job提交流程源码
Hadoop| MapperReduce② 框架原理

文章图片
Hadoop| MapperReduce② 框架原理

文章图片
waitForCompletion()submit(); // 1建立连接 connect(); // 1)创建提交Job的代理 new Cluster(getConfiguration()); // (1)判断是本地yarn还是远程 initialize(jobTrackAddr, conf); // 2 提交job submitter.submitJobInternal(Job.this, cluster) // 1)创建给集群提交数据的Stag路径 Path jobStagingArea = JobSubmissionFiles.getStagingDir(cluster, conf); // 2)获取jobid ,并创建Job路径 JobID jobId = submitClient.getNewJobID(); // 3)拷贝jar包到集群 copyAndConfigureFiles(job, submitJobDir); rUploader.uploadFiles(job, jobSubmitDir); // 4)计算切片,生成切片规划文件 writeSplits(job, submitJobDir); maps = writeNewSplits(job, jobSubmitDir); input.getSplits(job); // 5)向Stag路径写XML配置文件 writeConf(conf, submitJobFile); conf.writeXml(out); // 6)提交Job,返回提交状态 status = submitClient.submitJob(jobId, submitJobDir.toString(), job.getCredentials());

View Code确认文件夹是否存在; 获取jobId;要往jobId中提交一些文件:
copyAndConfigureFiles(Job,submitJobDir)即 xml文件 |  切片文件信息 writeConf(conf,SubmitJobFile)
切片的方法:
①遍历所有文件 |
②判断是否可切 |
③计算块大小,切片大小 | minsize  blocksize  maxsize --> 取中间值;splitSize要比blockSize大,则minsize设置 > blocksize;splitsize< blicksize,则maxsize < blocksize
return Math.max(minSize, Math.min(maxSize, blockSize));

本地模式没有块,默认32M;
④ Long bytesRemaining / splitsize > 1.1(本地剩余/切片数量)
但切时按1倍切,保证切片体积不至于太小;bytesRemaining -=splitSize
默认切片规则的实现类FileInputFormat;默认把切片变成key,value值的实现类为TextInputFormat(按行读取每条记录,键是存储该行在整个文件中的起始偏移量,LongWritable类型;值是这行内容 Text类
型),它返回的RecordReader类型为LineRecordReader。
 
Hadoop| MapperReduce② 框架原理

文章图片

CombineTextInputFormat 改变了切片规则;虽重写了从切片到k,v但返回的还是< LongWritable, Text> ;适用于小文件过多的场景;

Hadoop| MapperReduce② 框架原理

文章图片
Hadoop| MapperReduce② 框架原理

文章图片
CombineTextInputFormat用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个MapTask处理。public abstract class CombineFileInputFormat< K, V> extends FileInputFormat< K, V> public class CombineTextInputFormat extends CombineFileInputFormat< LongWritable, Text> CombineTextInputFormat.setMaxInputSplitSize(job, 4194304); // 4m 注意:虚拟存储切片最大值设置最好根据实际的小文件大小情况来设置具体的值。 生成切片过程包括:虚拟存储过程和切片过程二部分。 (1)虚拟存储过程: 将输入目录下所有文件大小,依次和设置的setMaxInputSplitSize值比较,如果不大于设置的最大值,逻辑上划分一个块。如果输入文件大于设置的最大值且大于两倍,那么以最大值切割一块;当剩余数据大小超过设置的最大值且不大于最大值2倍,此时将文件均分成2个虚拟存储块(防止出现太小切片)。 例如setMaxInputSplitSize值为4M,输入文件大小为8.02M,则先逻辑上分成一个4M。剩余的大小为4.02M,如果按照4M逻辑划分,就会出现0.02M的小的虚拟存储文件,所以将剩余的4.02M文件切分成(2.01M和2.01M)两个文件。 (2)切片过程: (a)判断虚拟存储的文件大小是否大于setMaxInputSplitSize值,大于等于则单独形成一个切片。 (b)如果不大于则跟下一个虚拟存储文件进行合并,共同形成一个切片。 (c)测试举例:有4个小文件大小分别为1.7M、5.1M、3.4M以及6.8M这四个小文件,则虚拟存储之后形成6个文件块,大小分别为: 1.7M,(2.55M、2.55M),3.4M以及(3.4M、3.4M) 最终会形成3个切片,大小分别为: (1.7+2.55)M,(2.55+3.4)M,(3.4+3.4)M

View Code以后都是FileInputFormat的子类:
KeyValueTextInputFormat 改变了切片到k,v值;每一行均为一条记录,被分隔符分割为key,value;

NLineInputFormat 按行切片;切片--> k,v用默认方式;(不再按块去划分,而是按NLineInputFormat指定的行数N来划分即:输入文件的总行数 / N = 切片数)

一个文件一个切片,RecordReader把切片变成k,v值;
默认输入输出类型:InputFormat从数据源头的类型就改变了;

自定义InputFormat
Hadoop| MapperReduce② 框架原理

文章图片

Hadoop| MapperReduce② 框架原理

文章图片
Hadoop| MapperReduce② 框架原理

文章图片
//自定义InputFormat,继承FileInputFormat public class WholeInputFormat extends FileInputFormat< Text, BytesWritable> {/** * 1.设置为不切分,一次读取一个完整文件封装为k,v * @param context * @param filename * @return */ @Override protected boolean isSplitable(JobContext context, Path filename) { return false; }/** *2. 重写RecordReader --> return new WholeRecordReader() * @param split * @param context * @return * @throws IOException * @throws InterruptedException */ @Override public RecordReader< Text, BytesWritable> createRecordReader(InputSplit split, TaskAttemptContext context) throws IOException, InterruptedException {return new WholeRecordReader(); } }public class WholeRecordReader extends RecordReader< Text, BytesWritable> { private Text key = new Text(); private BytesWritable value = https://www.songbingjia.com/android/new BytesWritable(); private boolean isRead = false; private FileSystem fileSystem; private FileSplit fs; private Path path; private FSDataInputStream fis; /** * 1. * @param split * @param context * @throws IOException * @throws InterruptedException */ @Override public void initialize(InputSplit split, TaskAttemptContext context) throws IOException, InterruptedException { fileSystem = FileSystem.get(context.getConfiguration()); //new Configuration(),这里已经开了,只需调用 fs = (FileSplit) split; //从输入InputSplit中解析出一个个key/value path = fs.getPath(); fis = fileSystem.open(path); }/** * 2.true读取key, value * @return * @throws IOException * @throws InterruptedException */ @Override public boolean nextKeyValue() throws IOException, InterruptedException { if (!isRead){ //ture, 读取key String path = fs.getPath().toString(); key.set(path); //读取value long length = fs.getLength(); byte[] bytes = new byte[(int) length]; fis.read(bytes); value.set(bytes, 0, bytes.length); //设为true isRead = true; return true; }else { return false; } }/** * 3. 获取key * @return * @throws IOException * @throws InterruptedException */ @Override public Text getCurrentKey() throws IOException, InterruptedException { return key; }/** * 4.获取value * @return * @throws IOException * @throws InterruptedException */ @Override public BytesWritable getCurrentValue() throws IOException, InterruptedException { return value; }/** * 5. 获取读取进度; * @return * @throws IOException * @throws InterruptedException */ @Override public float getProgress() throws IOException, InterruptedException { return isRead ? 1 : 0; }/** * 6. 关流 * @throws IOException */ @Override public void close() throws IOException { fileSystem.close(); IOUtils.closeStream(fis); } }public class WholeDriver {public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException { //1.实例化 Job job = Job.getInstance(new Configuration()); //2.设置jar类路径 job.setJarByClass(WholeDriver.class); //3.设置自定义的InputFormat job.setInputFormatClass(WholeInputFormat.class); //输出文件类型; 输出时用SequenceFileOutputFormat输出合并文件 job.setOutputFormatClass(SequenceFileOutputFormat.class); //4.设置Map输出端的k v类型 job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(BytesWritable.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(BytesWritable.class); //5.设置输入输出路径 FileInputFormat.setInputPaths(job, new Path("F://input")); FileOutputFormat.setOutputPath(job, new Path("F://output")); //6.提交任务 boolean b = job.waitForCompletion(true); System.exit(b ? 0 : 1); }}

View Code 2. MapReduce工作流程 
Hadoop| MapperReduce② 框架原理

文章图片

Hadoop| MapperReduce② 框架原理

文章图片

在有限的内存实现全排序;

1.MapTask阶段 Job.split、wc.jar、Job.xml等文件通过客户端提交给yarn,yarn根据切片信息启动相应数量的MapTask; MapTask1处理切片128M的数据块,它调用默认的TextInputFormat的RecoderReader类型的方法读取数据, 它一行行读到的 k,v值(行号,行内容)给Mapper();Mapper()调用 map(k,v)方法 通过context.write(k, v)写出去(给框架) ----通过outputCollector收集(MapTask的处理结果)< K,V,P> 到环形缓冲区中; ---排序的时候要先完成分区(就是把分区号一样的在一块),再在分区内部排序--> 分区排序--局部的快排序(内存保证输出的每个文件内部是有序的,按照文件key做全排序,相同的key挨一起), 缓冲区满就溢出到文件磁盘 (文件特点:①一个文件;②分区且区内有序; 溢写完之后文件分两个部分spill.index索引(文件有多少个分区,分区从哪结束)和spill.out输出文件 ) ----> > 多次溢出(取决于map方法)形成的多个文件,不同文件之间是无序的 ---> 多个溢写的文件合并成一个文件,按照分区归并排序(A、B文件之间做比较,若A第一个值 < B第一个值,就写到C中;接着再比较下面的依次...) 首先分区1进行归并写到文件的前半部分,分区2再进行归并写到文件的后半部分...(归并是数据流) 到此为止,Map阶段结束(生成一个分区且区内有序的完整的输出文件,shuffle的前半部分);2.ReduceTask阶段 MapTask输出文件分区且区内有序,多个MapTask形成多个分区且区内有序的文件;多个map输出文件交给Reduce来处理,全都下载到本地; ----> > 根据分区数启动相应数量的ReduceTask,ReduceTask1下载所有分区patition0即分区1的数据拷贝到内存缓冲区buffer,内存不够溢出到磁盘; ReduceTask2下载所有分区patition1即分区2的数据; ----> > 各自合并文件,归并排序(多个文件归并得到一个文件,文件特点是:按照key有序); 至此完成了从map输出到reduce输入的3次排序--全排序;有了这个全排序文件才能进行分组--> 输出到reduce()方法里边; 这就是shuffle的全过程(Map方法之后,Reduce方法之前;3次全排序+分组);---> > 一次读取一组,按照相同key分组 --> GroupingComparator(k, knext) 分组 ---> > Reduce(k,v)方法 context.write(k,v)--> > 经过outputformat(默认TextOutputFormat)RecordWriter--- write(k, v) ---> > Part-r-00000文件; 如果启动了combiner:(前提是求和操作而不是求平均值) 第一次排序结束后在落盘(溢出写入磁盘)之前会经过combiner的合并(没有重复的单词,但两个ReduceTask之间有重复的单词); 第二次排序即归并排序完之后还没落盘之前(没有重复的的单词)数据流会流入combiner(之后可进行压缩),写到磁盘上; 第三次排序,两个相同分区的数据下载(有可能有重复单词)合并---> 启动Reduce,没有combine

3. shuffle机制目的:分组 ---> 方法是全排序;
Map方法之后,Reduce方法之前的数据处理过程称之为Shuffle。
Hadoop| MapperReduce② 框架原理

文章图片

 
环形缓冲区:在逻辑上就是环形的,特点没头没尾;< k,v,p> 进入环形缓冲区,传递过来的是序列化的数据,右环是数据,左环是索引;
写之前要排序,数据要反序列化成对象才能比较,看1、2数据是否需要交换顺序,如果需要交换交换的是索引;按照索引一组一组把数组写到磁盘上;
分区也是在排序;首先按P排序,再按k排序---> 写到磁盘上; 分区和排序全都发生在缓冲区当中,且分区和排序是同时完成的;在数据没填满(达到80%)时就会溢写(溢出之前就已经排好序了)到磁盘;
shuffle是一部分MapTask,一部分ReduceTask;MapTask会有一个单独的输出文件;ReduceTask要从MapTask中下载数据到本地,要等到所有的MapTask运行完之后才能运行;
按key分组,全排序----> 按key排好,两个数据就可以决定分组,(默认调用compareTo进行分组,否则就用自定义的,自定义是继承类WritableComparator;)这个数据跟下个数据比较,一样就分同一组,不一样就新启动一组;
内存里边只有两个数据,这一个和下一个;

从map到reduce进行的全排序;快排,单轴排序,java用的双轴排序;
分区只是决定这条数据去哪个reduceTask,不能决定reduceTask的数量;
怎么比较key是否相等;

① 分区

public class HashPartitioner< K, V> extends Partitioner< K, V> { public int getPartition(K key, V value,int numReduceTasks) { return (key.hashCode() & Integer.MAX_VALUE) %numReduceTasks; } 默认分区是根据 Key的hashCode对ReduceTask个数取模得到,没法控制哪个key存储到哪个分区;

}

return (key.hashCode() & Integer.MAX_VALUE) % numReduceTasks; numReduceTasks是设置的ReduceTask的数量;取余 Integer.MAX_VALUE换算成位是一串011111...;假设key.hashCode是 0100100,它们做位运算,没变化,但如果是以1开头的,就是负数,取余还是负数;---> 目的就是防止出现负数;

把不同的数据分到不同的ReduceTask分别处理叫分区; 
public class MyPartitioner extends Partitioner< Text, FlowBean> { //自定义分区 public int getPartition(Text text, FlowBean flowBean, int i) { String substring = text.toString().substring(0, 3); switch (substring){ case "136": return 0; case "137": return 1; case "138": return 2; case "139": return 3; default: return 4; } } }public class PatitionDriver { public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException { //1.实例化 Job job = Job.getInstance(new Configuration()); //2.设置类jar路径 job.setJarByClass(PatitionDriver.class); //3.设置Mapper和Reduce路径 job.setMapperClass(FlowMapper.class); job.setReducerClass(FlowReduce.class); job.setPartitionerClass(MyPartitioner.class); //job.setNumReduceTasks(5); //job.setNumReduceTasks(6); //ReduceTask数量6 > 分区数量5; 产生空的输出文件part-r-00005 //job.setNumReduceTasks(4); //ReduceTask数量4 < 分区数量5; 有部分数据无处放Illegal partition for 18271575951 (4) //如果分区数量跳过3,不按顺序;Illegal partition for 13956435636 (4); 分区号不能跳,会浪费;分区号必须从0开始,逐一累加; job.setNumReduceTasks(1); //ReduceTask数量1,不管MapTask输出多少个分区文件,最终结果都交给这一个ReduceTask,最终也只会产生一个part-r-0000文件 //4.输出类型 job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(FlowBean.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(FlowBean.class); //5.路径 FileInputFormat.setInputPaths(job, new Path("F://input")); FileOutputFormat.setOutputPath(job, new Path("F://output")); //6.提交 boolean b = job.waitForCompletion(true); System.exit(b ? 0 : 1); } }

② WritableComparable排序MapTask和ReduceTask均会对数据按照key进行排序,属Hadoop默认行为,任何应用程序中的数据均会被排序,不管逻辑上是否需要;
默认排序是按字典顺序排序,且实现该排序方法的是快速排序;
Hadoop| MapperReduce② 框架原理

文章图片

分类:
部分排序(MapReduce根据输入记录的键对数据集排序,保证输出的每个文件内部有序);
全排序(最终输出结果只有一个文件,且文件内部有序;实现方法是只设置一个ReduceTask,在处理大型文件时效率极低,一台机器处理所有文件,丧失了MapReduce所提供的行为架构);辅助排序(GroupingComparator分组,在Reduce端对key分组,应用于:在接受的key为bean对象时,想让一个或几个字段相同(全部字段比较不相同)的key进入到同一个reduce方法时可采用分组排序);
二次排序(自定义排序中,如果comparaTo中的判断条件为两个即二次排序;)
排序接口 WritableComparable,利用了Shuffle强制排序的过程

分区--> 排序;把需要排序的放到key的位置就会自动排序(强制性)


自定义排序
自定义排序WritableComparable
原理分析
bean对象做为key传输,需要实现WritableComparable接口重写compareTo方法,就可以实现排序。
/OrderBeam是WritableComparable的实现类 //bean对象做为key传输,需要实现WritableComparable接口重写compareTo方法,就可以实现排序。 public class OrderBean implements WritableComparable< OrderBean> { } @Override public int compareTo(OrderBean o) { //先按orderById分; 如果相同则按price int compare = this.getOrderById().compareTo(o.getOrderById()); if (compare == 0){ return -Double.compare(this.price, o.price); //默认是升序; 降序需加- }else { return compare; } } @Override//序列化把它写进去 public void write(DataOutput dataOutput) throws IOException { dataOutput.writeUTF(orderById); dataOutput.writeUTF(productId); dataOutput.writeDouble(price); } @Override //反序列化要再把它读出来 public void readFields(DataInput dataInput) throws IOException { orderById = dataInput.readUTF(); productId = dataInput.readUTF(); price = dataInput.readDouble(); }

排序的同时可自定义分区 public class SortPatitioner extends Partitioner< FlowBean, Text> { @Override public int getPartition(FlowBean flowBean, Text text, int i) { String start = text.toString().substring(0, 3); switch (start) { case "136": return 0; case "137": return 1; case "138": return 2; case "139": return 3; default: return 4; } } }

③ Combiner合并  combiner应用的前提是求和操作,求平均值不行
Hadoop| MapperReduce② 框架原理

文章图片

  Reduce(K, V)它在ReduceTask中;    Combine在MapTask节点中运行;
Combine是对Mapper的局部汇总,不能改变Mapper的输出类型,Combine输入输出泛型应该是一样的;
如:
aaaaaaaaabbbbbbbbbccccccccc 在map阶段是(aaa,1)3;(bbb, 1)3;(ccc, 1)3 用了combine在map阶段(aaa, 3),(bbb, 3),(ccc, 3)

reduce可以对所有的mapper进行全局汇总;combine是局部合并;
reduce(分组输入,combine肯定也是分组输入,)输出文件至少是有序的;整个shuffle阶段就是给reduce准备输入文件,排好序;
job.setCombinerClass(WcReduce.class); //不设置CombinerClass

Hadoop| MapperReduce② 框架原理

文章图片

【Hadoop| MapperReduce② 框架原理】 
 
Hadoop| MapperReduce② 框架原理

文章图片

④  分组(辅助排序)对Reduce阶段的数据根据某一个或几个字段进行分组。
分组排序步骤:
(1)自定义类继承WritableComparator
(2)重写compare()方法
@Override
public int compare(WritableComparable a, WritableComparable b) {
          // 比较的业务逻辑
          return result;
}
(3)创建一个构造将比较对象的类传给父类
protected OrderGroupingComparator() {
      super(OrderBean.class, true);
}
Hadoop| MapperReduce② 框架原理

文章图片

自定义分组
分组规则和排序规则一致就不需要自定义分组;排序规则和分组规则不一样,就用到自定义分组;

分组粒度 > 排序的粒度; 分组的粒度更粗一点,排序的粒度更细点;

public class MyComparator extends WritableComparator{ public MyComparator(){ super(OrderBean.class, true); } @Override public int compare(WritableComparable a, WritableComparable b) { OrderBean oa = (OrderBean) a; OrderBean ob = (OrderBean) b; //构造两个空对象拿到序列化的数据,把具有相同id的key放一个组;需要反序列化去比较

return oa.getOrderById().compareTo(ob.getOrderById()); //分组,相同的key即id就分一个组} }

 

public class OrderReducer extends Reducer< OrderBean, NullWritable, OrderBean, NullWritable> {@Override protected void reduce(OrderBean key, Iterable< NullWritable> values, Context context) throws IOException, InterruptedException {// context.write(key, NullWritable.get()); //key之前是相同的,不相同的key进入同一个组;它取出来的是每个组第一个值;for (NullWritable value : values) {//遍历所有的 context.write(key, value); } 对于reduce,key, value都只有一个对象; 它拿到的数据是已经排好序的k,v对象;往下遍历一个,就反序列化一个, 再遍历一个,继续往下移动(只能往下移动,不能返回),反序列化; 对象始终只有两个,对象的值却是在不断变化(通过反序列化的方法);
执行hasNaxt,调用WritableComparable跟下面比较下:若相等返回true就继续往下迭代;把当前的迭代值与下一个比较,0返回true继续迭代,非0返回false迭代结束;
结束后第二个reduceTask接着迭代的数据往下...分组和读数据是同时进行的;Iterator< NullWritable> iterator = values.iterator(); //单例模式,来回遍历还是他自己 for (int i = 0; i < 2; i++){ if (!iterator.hasNext()) break; iterator.next(); context.write(key, NullWritable.get()); //查看组内前两个值 //取前两个值; }


NullWritalbe单例模式;私有化构造器,公有化一个get方法;饿汉式模式;

public class NullWritable implements WritableComparable< NullWritable> { private static final NullWritable THIS = new NullWritable(); private NullWritable() { } public static NullWritable get() { return THIS; }


在大数据背景下,不允许有大量对象存在内存,在整个MapReduce框架运行过程中,所有的数据都是用序列化来传递的。需要用到对象时,现场序列化现场反序列化;
对于自定义的comparator比较的时候并没有现成的对象用,需要先构造两个空对象,拿到序列化的数据,反序列化进行比较;核心:减小IO;

分区发生在mapTask,分组发生在ReduceTask中;
combine输入的数据肯定是要分组,默认用bean的排序规则,combine的分组规则不会用到GroupingComparator; 
GroupingComparator  起效只在reduce之前分组起效;
4. OutputFormat数据输出 
Hadoop| MapperReduce② 框架原理

文章图片

  SequenceFileOutputFormat它是处在两个MapReduce之间的临时文件;  SequenceFileOutputFormat      SequenceFileInputFormat发,接;什么类型出来,什么类型接,中间用它连接;
自定义OutputFormat
public class MyOutputFormat extends FileOutputFormat< LongWritable, Text> { @Override public RecordWriter< LongWritable, Text> getRecordWriter(TaskAttemptContext job) throws IOException, InterruptedException { MyRecordWriter recordWriter = new MyRecordWriter(); recordWriter.initialize(job); return recordWriter; } }public class MyRecordWriter extends RecordWriter< LongWritable, Text> { private FSDataOutputStream atguigu; private FSDataOutputStream others; public void initialize(TaskAttemptContext job) throws IOException {//job来获取configuration //获取文件系统 Configuration configuration = job.getConfiguration(); FileSystem fileSystem = FileSystem.get(configuration); //获取文件目录 String path = configuration.get(FileOutputFormat.OUTDIR); atguigu = fileSystem.create(new Path(path + "/atguigu.log")); others = fileSystem.create(new Path(path + "/others.log")); } @Override public void write(LongWritable key, Text value) throws IOException, InterruptedException { String line = value.toString() + "\\n"; if (line.contains("atguigu")){ //

    推荐阅读