网赢中国专注大数据营销 [会员登录][免费注册][网赢中国下载]我要投稿|加入合伙人|设为首页|收藏|RSS
网赢中国是大数据营销代名词。
大数据营销
当前位置:网赢中国 > 行业资讯 > 技术文章 > 大数据营销技术文章 > MapReduce应用案例-Hadoop
MapReduce应用案例-Hadoop
编辑:石山园 发布时间: 2015-7-16    文章来源:博客园
大数据营销


本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,博主为石山园,博客地址为 http://www.cnblogs.com/shishanyuan  。该系列课程是应邀实验楼整理编写的,这里需要赞一下实验楼提供了学习的新方式,可以边看博客边上机实验,课程地址为 https://www.shiyanlou.com/courses/237


【注】该系列所使用到安装包、测试数据和代码均可在百度网盘下载,具体地址为 http://pan.baidu.com/s/10PnDs,下载该PDF文件


1环境说明


部署节点操作系统为CentOS,防火墙和SElinux禁用,创建了一个shiyanlou用户并在系统根目录下创建/app目录,用于存放Hadoop等组件运行包。因为该目录用于安装hadoop等组件程序,用户对shiyanlou必须赋予rwx权限(一般做法是root用户在根目录下创建/app目录,并修改该目录拥有者为shiyanlou(chown R shiyanlou:shiyanlou /app)。


Hadoop搭建环境:


l  虚拟机操作系统: CentOS6.6  64位,单核,1G内存


l  JDK1.7.0_55 64


l  Hadoop1.1.2


2准备测试数据


测试数据包括两个文件dept(部门)和emp(员工),其中各字段用逗号分隔:


dept文件内容:


10,ACCOUNTING,NEW YORK


20,RESEARCH,DALLAS


30,SALES,CHICAGO


40,OPERATIONS,BOSTON


 


emp文件内容:


7369,SMITH,CLERK,7902,17-12-80,800,,20


7499,ALLEN,SALESMAN,7698,20-2-81,1600,300,30


7521,WARD,SALESMAN,7698,22-2-81,1250,500,30


7566,JONES,MANAGER,7839,02-4-81,2975,,20


7654,MARTIN,SALESMAN,7698,28-9-81,1250,1400,30


7698,BLAKE,MANAGER,7839,01-5-81,2850,,30


7782,CLARK,MANAGER,7839,09-6-81,2450,,10


7839,KING,PRESIDENT,,17-11-81,5000,,10


7844,TURNER,SALESMAN,7698,08-9-81,1500,0,30


7900,JAMES,CLERK,7698,03-12-81,950,,30


7902,FORD,ANALYST,7566,03-12-81,3000,,20


7934,MILLER,CLERK,7782,23-1-82,1300,,10


 


/home/shiyanlou/install-pack/class6目录可以找到这两个文件,把这两个文件上传到HDFS/class6/input目录中,执行如下命令:


cd /home/shiyanlou/install-pack/class6


hadoop fs -mkdir -p /class6/input


hadoop fs -copyFromLocal dept /class6/input


hadoop fs -copyFromLocal emp /class6/input


hadoop fs -ls /class6/input


clip_image002


3应用案例


3.1 测试例子1:求各个部门的总工资


3.1.1 问题分析


MapReduce中的join分为好几种,比如有最常见的 reduce side joinmap side joinsemi join 等。reduce join shuffle阶段要进行大量的数据传输,会造成大量的网络IO效率低下,而map side join 在处理多个小表关联大表时非常有用 。


Map side join是针对以下场景进行的优化:两个待连接表中,有一个表非常大,而另一个表非常小,以至于小表可以直接存放到内存中。这样我们可以将小表复制多份,让每个map task内存中存在一份(比如存放到hash table中),然后只扫描大表:对于大表中的每一条记录key/value,在hash table中查找是否有相同的key的记录,如果有,则连接后输出即可。为了支持文件的复制,Hadoop提供了一个类DistributedCache,使用该类的方法如下:


1)用户使用静态方法DistributedCache.addCacheFile()指定要复制的文件,它的参数是文件的URI(如果是HDFS上的文件,可以这样:hdfs://jobtracker:50030/home/XXX/file)。JobTracker在作业启动之前会获取这个URI列表,并将相应的文件拷贝到各个TaskTracker的本地磁盘上。


2)用户使用DistributedCache.getLocalCacheFiles()方法获取文件目录,并使用标准的文件读写API读取相应的文件。


在下面代码中,将会把数据量小的表(部门dept)缓存在内存中,在Mapper阶段对员工部门编号映射成部门名称,该名称作为key输出到Reduce中,在Reduce中计算按照部门计算各个部门的总工资。


3.1.2 处理流程图


clip_image004


3.1.3 测试代码


Q1SumDeptSalary.java代码(vi编辑代码是不能存在中文):


 



复制代码

大数据营销
编辑推荐
图片行业资讯
  • 雷军隔空喊话董明珠:格力 小米欢迎你
  • 杨元庆:Moto在华上市一周预定量超100万
  • 小米洪锋谈O2O布局:做商城不做具体服务
  • 盖茨向不知名实体捐赠15亿美元微软股票 持股降至3%
  • 刘强东:允许我获取数据 冰箱免费送给你
营销资讯搜索
大数据营销
推荐工具
    热点关注
    大数据营销
    大数据营销
    大数据营销
    大数据营销
     

    大数据营销之企业名录

    网络营销之邮件营销

    大数据营销之搜索采集系列

    大数据营销之QQ号采集

    大数据营销之QQ精准营销

    大数据营销之QQ消息群发

    大数据营销之空间助手

    大数据营销之QQ联盟

    大数据营销之QQ群助手
     
    设为首页 | 营销资讯 | 营销学院 | 营销宝典 | 本站动态 | 关于网赢中国 | 网站地图 | 网站RSS | 友情链接
    本站网络实名:网赢中国  国际域名:www.softav.com  版权所有 2004-2015  深圳爱网赢科技有限公司
    邮箱:web@softav.com 电话:+86-755-26010839(十八线) 传真:+86-755-26010838
    在线咨询:点击这里给我发消息 点击这里给我发消息 点击这里给我发消息  点击这里给我发消息  点击这里给我发消息

    深圳网络警
    察报警平台
    公共信息安
    全网络监察
    经营性网站
    备案信息
    不良信息
    举报中心
    中国文明网
    传播文明
    分享