快速创建和使用hadoop离线数据分析集群-九游平台
操作场景
本入门提供从零开始创建hadoop离线数据分析集群并通过集群客户端提交一个wordcount作业的操作指导。wordcount是最经典的hadoop作业,用于统计海量文本的单词数量。
hadoop集群完全使用开源hadoop生态,采用yarn管理集群资源,提供hive、spark离线大规模分布式数据存储和计算及进行海量数据分析与查询的能力。
操作流程
开始使用如下样例前,请务必按准备工作指导完成必要操作。
- 步骤一:创建mrs集群:创建一个mrs 3.1.5版本的“hadoop分析集群”。
- 步骤二:安装集群客户端:下载并安装mrs集群客户端。
- 步骤三:准备应用程序及数据:准备mrs集群客户端内wordcount样例程序运行所需的数据文件。
- 步骤四:提交作业并查看结果:在集群客户端提交wordcount数据分析作业并查看执行结果。
准备工作
- 注册账号并实名认证。
在创建mrs集群之前,请先,进行。
如果您已开通华为云并进行实名认证,请忽略此步骤。
- 已准备具有创建mrs集群的iam用户,详细操作请参见。
步骤一:创建mrs集群
- 进入。
- 在服务列表中搜索“mapreduce服务 mrs”,进入mrs服务管理控制台。
- 单击“购买集群”,进入“购买集群”页面,选择“快速购买”页签。
- 根据实际业务规划情况填写集群配置信息(本示例为快速创建按需计费的mrs 3.1.5版本集群,如需了解更多参数配置请参考)。
表1 mrs集群配置参数 参数名称
参数说明
取值样例
计费模式
选择待创建的集群的计费模式,mrs提供“包年/包月”与“按需计费”两种计费模式。
按需计费是一种后付费模式,即先使用再付费,按照mrs集群实际使用时长计费。
按需计费
区域
选择区域。
不同区域的云服务产品之间内网互不相通。请就近选择靠近您业务的区域,可减少网络时延,提高访问速度。
华北-北京四
集群名称
待创建的mrs集群名称。
mrs_demo
集群类型
根据实际业务需要选择待创建的mrs集群类型。
“自定义”类型集群提供丰富的组件搭配,可自行选择对应版本mrs集群所支持的所有组件。
自定义
版本类型
待创建的mrs集群版本类型。
普通版
集群版本
待创建的mrs集群版本,不同版本所包含的开源组件版本及功能特性可能不同,推荐选择最新版本。
mrs 3.1.5
组件选择
基于系统预置的集群模板选择要购买的集群组件。
hadoop分析集群
可用区
选择集群工作区域下关联的可用区。
可用区1
虚拟私有云
选择需要创建集群的vpc,单击“查看虚拟私有云”进入vpc服务查看已创建的vpc名称和id。如果没有vpc,需要创建一个新的vpc。
vpc-default
子网
选择需要创建集群的子网,可进入vpc服务查看vpc下已创建的子网名称和id。如果vpc下未创建子网,请单击“创建子网”进行创建。
subnet-default
集群节点
配置集群节点信息。
保持默认
kerberos认证
是否启用kerberos认证。
不开启
用户名
登录集群管理页面及ecs节点的用户名。
admin/root
密码
设置登录集群管理页面及ecs节点用户的密码。
-
确认密码
再次输入设置用户密码。
-
企业项目
选择集群所属的企业项目。
default
通信安全授权
勾选确认授权。
勾选
图1 购买hadoop分析集群
- 单击“立即购买”,进入任务提交成功页面。
- 单击“返回集群列表”,在“现有集群”列表中可以查看到集群创建的状态。
集群创建需要时间,所创集群的初始状态为“启动中”,创建成功后状态更新为“运行中”,请您耐心等待。
步骤二:安装集群客户端
mrs集群创建成功后,用户需手动安装集群客户端用于连接集群内各组件服务,进行客户端shell连接、作业任务提交等操作。
客户端可以安装在集群内的节点上,也可以安装在集群外的节点上,本指南以在集群内的master1节点上安装客户端为例进行介绍。
- mrs集群创建成功后,在集群列表中单击mrs集群名称进入集群概览页面。
- 单击“集群管理页面”后的“前往 manager”,在弹出的窗口中选择“eip访问”并配置弹性ip信息。
首次访问时,可点击“管理弹性公网ip”,在弹性公网ip控制台购买一个弹性公网ip,购买成功后刷新弹性公网ip列表并选择。
- 勾选确认信息后,单击“确定”,登录集群的fusioninsight manager管理界面。
manager登录用户名为admin,密码为购买集群时配置的用于登录manager管理界面的“admin”用户的自定义密码。
- 在“九游平台主页”页签的集群名称后单击,单击“下载客户端”下载集群客户端。
图2 下载客户端
在“下载集群客户端”弹窗中,配置以下参数:
- 选择客户端类型:选择“完整客户端”。
- 选择平台类型:必须与待安装客户端的节点的架构匹配,例如“x86_64”。
对于集群内的节点,节点架构类型可在manager页面选择“主机”,在待安装客户端节点所在行的“平台类型”列查看。
- 勾选“仅保存到如下路径”,使用默认保存路径,文件生成后将保存在集群主oms节点(通常为master1节点)的“/tmp/fusioninsight-client”目录下。
图3 下载集群客户端提示框
单击“确定”后,等待客户端软件生成成功。
- 在mrs服务管理控制台的集群列表中,单击集群名称,在集群的“节点管理”页签,单击包含“master1”的节点名称,在ecs详情页面右上角单击“远程登录”登录master1节点。
图4 查看master1节点
- 使用root用户登录master1节点,密码为购买集群时配置用于登录集群节点的“root”用户的自定义密码。
- 执行以下命令切换到客户端软件包所在目录,并解压客户端软件包。
cd /tmp/fusioninsight-client/
tar -xvf fusioninsight_cluster_1_services_client.tar
tar -xvf fusioninsight_cluster_1_services_clientconfig.tar
- 执行以下命令进入安装包所在目录,安装客户端。
cd fusioninsight_cluster_1_services_clientconfig
执行如下命令安装客户端到指定目录(目录可以不存在,如果存在则必须为空)。
例如安装到“/opt/client”目录,执行以下命令:
./install.sh /opt/client
等待客户端安装完成。
... ... component client is installed successfully ...
步骤三:准备应用程序及数据
mrs集群创建成功后,可获取集群客户端内预置的wordcount样例程序进行运行,也可准备自行开发的大数据应用程序并上传至集群。
本指南以运行mrs集群客户端内的wordcount样例程序为例进行介绍,需先准备wordcount样例程序运行所需的数据文件。
- 以root用户登录master1节点。
- 准备数据文件。
例如文件名为“wordcount1.txt”和“wordcount2.txt”,内容如下所示:
vi /opt/wordcount1.txt
hello word hello wordcount
vi /opt/wordcount2.txt
hello mapreduce hello hadoop
- 执行以下命令切换到客户端安装目录,配置环境变量并创建用于存放样例数据的hdfs目录,例如“/user/example/input”。
cd /opt/client
source bigdata_env
hdfs dfs -mkdir /user/example/input
- 执行以下命令,将样例数据上传至hdfs。
hdfs dfs -put /opt/wordcount1.txt /user/example/input
hdfs dfs -put /opt/wordcount2.txt /user/example/input
步骤四:提交作业并查看结果
- 以root用户登录客户端节点(master1节点)。
- 执行如下命令提交wordcount作业,读取源数据进行分析并将执行结果输出至hdfs。
cd /opt/client
source bigdata_env
hadoop jar hdfs/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.1-*.jar wordcount "/user/example/input/*" "/user/example/output/"
... file input format counters bytes read=56 file output format counters bytes written=48
- “/user/example/output/”为hdfs上存放作业输出文件地址,请设置为一个不存在的目录。
- “hadoop-mapreduce-examples-3.3.1-*.jar”文件在不同版本的集群客户端目录下文件名有差异,以实际名称为准。
- 查看作业执行结果。
- 作业执行完成后,可执行以下命令查看作业输出文件。
hdfs dfs -ls /user/example/output/
... ... /user/example/output/_success ... /user/example/output/part-r-0000
- 输出结果保存在hdfs文件系统中,可以通过命令将其下载到本地进行查看。
例如执行以下命令:
hdfs dfs -get /user/example/output/part-r-00000 /opt
cat /opt/part-r-00000
“part-r-00000”文件内容如下:
hadoop 1 hello 4 mapreduce 1 word 1 wordcount 1
- 作业执行完成后,可执行以下命令查看作业输出文件。
- 查看作业运行记录。
- 使用admin用户登录运行作业的集群的fusioninsight manager页面,选择“集群 > 服务 > yarn”。
- 单击resourcemanager web ui所在行的“resourcemanager(xxx,主)”链接。
- 在“all applications”页面,单击目标作业的id,可以查看作业运行的详情。
在“all applications”页面可根据任务提交时间和提交任务的用户名确认具体任务。
图5 查看作业详情
相关信息
hadoop组件包含了hdfs、yarn、mapreduce服务,可根据业务实际需求运行相关作业进行离线数据分析或查看,详细操作请参见、或。
相关文档
意见反馈
文档内容是否对您有帮助?
如您有其它疑问,您也可以通过华为云社区问答频道来与我们联系探讨