博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
hadoop控制map个数(转)
阅读量:4921 次
发布时间:2019-06-11

本文共 1147 字,大约阅读时间需要 3 分钟。

原文链接:https://blog.csdn.net/lylcore/article/details/9136555
 
  hadooop提供了一个设置map个数的参数mapred.map.tasks,我们可以通过这个参数来控制map的个数。但是通过这种方式设置map的个数,并不是每次都有效的。原因是mapred.map.tasks只是一个hadoop的参考数值,最终map的个数,还取决于其他的因素。
     为了方便介绍,先来看几个名词:
block_size : hdfs的文件块大小,默认为64M,可以通过参数dfs.block.size设置
total_size : 输入文件整体的大小
input_file_num : 输入文件的个数
 
(1)默认map个数
     如果不进行任何设置,默认的map个数是和blcok_size相关的。
     default_num = total_size / block_size;
 
(2)期望大小
     可以通过参数mapred.map.tasks来设置程序员期望的map个数,但是这个个数只有在大于default_num的时候,才会生效。
     goal_num = mapred.map.tasks;
 
(3)设置处理的文件大小
     可以通过mapred.min.split.size 设置每个task处理的文件大小,但是这个大小只有在大于block_size的时候才会生效。
     split_size = max(mapred.min.split.size, block_size);
     split_num = total_size / split_size;
 
(4)计算的map个数
compute_map_num = min(split_num,  max(default_num, goal_num))
 
     除了这些配置以外,mapreduce还要遵循一些原则。 mapreduce的每一个map处理的数据是不能跨越文件的,也就是说min_map_num >= input_file_num。 所以,最终的map个数应该为:
     final_map_num = max(compute_map_num, input_file_num)
 
     经过以上的分析,在设置map个数的时候,可以简单的总结为以下几点:
(1)如果想增加map个数,则设置mapred.map.tasks 为一个较大的值。
(2)如果想减小map个数,则设置mapred.min.split.size 为一个较大的值。
(3)如果输入中有很多小文件,依然想减少map个数,则需要将小文件merger为大文件,然后使用准则2。

转载于:https://www.cnblogs.com/hubavyn/p/9058354.html

你可能感兴趣的文章
Java 修饰符
查看>>
Oracle 数据库基础——安装
查看>>
【转载】在Linux中使用VS Code编译调试C++项目
查看>>
分享一个MySQL分库分表备份脚本(原)
查看>>
caffe parse_log.sh
查看>>
C#中利用iTextSharp开发二维码防伪标签(1)
查看>>
【AC自动机】[UESTC 554][USACO 2012]Video Game Combos
查看>>
C# WInform 界面左导航菜单
查看>>
Java 基础之详解 Java IO
查看>>
关于开源精神
查看>>
Stand-alone remote client demo
查看>>
【Alpha】Daily Scrum Meeting——blog3
查看>>
IMetadataAware接口的特性定制Model元数据
查看>>
sharepoint 增删改查
查看>>
友盟添加页面统计
查看>>
「踩坑记」Android API 判断权限申请结果的闪退问题
查看>>
Vue.js——vue-resource全攻略
查看>>
o2优化(手动)
查看>>
Redis笔记
查看>>
Android Ubuntu 12.04 源码环境搭建
查看>>