Hadoop中的MapTask工作机制
1.并行度决定机制
2.MapTask工作机制
(1)Read阶段:Map Task通过用户编写的RecordReader,从输入的inputSplit中解析出一个个的key/value
(2)Map阶段:将解析出的key/value交给用户编写的map()函数处理,并产生一系列新的key/value
(3)Collect阶段:在用户编写的map()函数处理完成后,通常会调用OutputCollector.collect()将结果输出。在该函数内部,会将生成的key/value进行分区(调用Partitioner),并写入一个环形内存缓冲区
(4)Spill阶段:即“溢写”阶段,当环形缓冲区满后(通常达到80%)会将数据写入本地磁盘,生一个临时文件。注意,在将数据写入本地磁盘之前,会先对数据进行一次本地排序,并在必须是对数据进行合并、压缩等操作
- 利用快速排序算法对缓冲区内的数据进行排序,其排序方式为:先按照分区编号partition进行排序,然后按照key(Hash值)进行排序。。这样数据将以分区为单位聚集在一起,分区内的数据按照key有序排列
- 按照分区编号有小到大一次将每个分区中的数据写入任务工作目录下的临时文件output/spillN.out(N标识当前溢写次数)中。如果用户设置了combiner,则在写入文件之前,对每个分区中的数据进行一次聚集操作
- 将分区数据的元信息写入到内存索引数据结构SpillRecord中,其中每个分区的元信息包括数据在临时文件中的偏移量、压缩前数据大小和压缩后数据大小。如果当前内存索引大小超过1M,则将内存索引数据写到文件output/spillN.out.index文件中
(5)Combine阶段:当所有数据处理完毕后,Map Task会对所有临时文件进行一次合并,以确保每个Map Task最终只会生成一个数据文件
-
当所有数据处理完毕后,Map Task会将所有临时文件合并成一个大文件,并保存到文件output/file.out中,同时生成相应的索引文件output/file.out.index
-
在文件合并过程中,Map Task将以分区为单位进行合并。对于某个分区,采用多轮递归合并的方式,每轮合并io.sort.factor(默认10)个文件,并将产生的文件重新加入到待合并列表中,对文件排序后,重复以上过程,直到最终合并成一个大文件。
-
让每个Map Task最终只生成一个数据文件可避免同时打开大量文件和同时读取大量小文件产生的随机读取带来的开销