大数据技术 hadoop 2.7.2+zookeeper高可用集群部署
沉沙 2018-09-25 来源 : 阅读 1233 评论 0

摘要:本篇教程探讨了大数据技术 hadoop 2.7.2+zookeeper高可用集群部署,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

本篇教程探讨了大数据技术 hadoop 2.7.2+zookeeper高可用集群部署,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

<



    一.环境说明

虚拟机:vmware 11

操作系统:Ubuntu 16.04

Hadoop版本:2.7.2

Zookeeper版本:3.4.9

    二.节点部署说明

    三.Hosts增加配置

sudo gedit /etc/hosts

wxzz-pc、wxzz-pc0、wxzz-pc1、wxzz-pc2均配置如下:

127.0.0.1 localhost
192.168.72.132 wxzz-pc
192.168.72.138 wxzz-pc0
192.168.72.135 wxzz-pc1
192.168.72.136 wxzz-pc2

     四.zookeeper上配置

Zoo.cfg配置文件内容如下:

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/opt/zookeeper-3.4.9/tmp/dataDir
dataLogDir=/opt/zookeeper-3.4.9/tmp/logs/
clientPort=2181
server.1=wxzz-pc:2182:2183
server.2=wxzz-pc0:2182:2183
server.3=wxzz-pc1:2182:2183

 在/opt/zookeeper-3.4.9/tmp/dataDir下新建”myid”文件,wxzz-pc、wxzz-pc0、wxzz-pc1三台虚拟机中myid文件分别对应的内容为:1、2、3,也就是server.X=wxzz-pc:2182:2183,对应X的数值。

    五.Hadoop配置

1.core-site.xml 配置


        
           fs.defaultFS
           hdfs://myhadoop:8020
        

        
           hadoop.tmp.dir
           /opt/hadoop-2.7.2/tmp/hadoop-${user.name}
        

        
           ha.zookeeper.quorum
           wxzz-pc:2181,wxzz-pc0:2181,wxzz-pc1:2181
        



2. hdfs-site.xml 配置


     
        dfs.replication
        2
     

     
         dfs.block.size
         10485760
     

     
       hadoop.tmp.dir
       /opt/hadoop-2.7.2/tmp/hadoop-${user.name}
     

     
       dfs.namenode.name.dir
       ${hadoop.tmp.dir}/dfs/name
     

    
       dfs.datanode.data.dir
       ${hadoop.tmp.dir}/dfs/data
     

     
         dfs.permissions
         false
     

     
        dfs.permissions.enabled
        false
     

       
       dfs.webhdfs.enabled  
       true  
    

     
       dfs.nameservices
       myhadoop
     

     
       dfs.ha.namenodes.myhadoop
       nn1,nn2
     

     
       dfs.namenode.rpc-address.myhadoop.nn1
       wxzz-pc:8020
     

     
       dfs.namenode.http-address.myhadoop.nn1
       wxzz-pc:50070
     

      
       dfs.namenode.rpc-address.myhadoop.nn2
       wxzz-pc0:8020
     

    
       dfs.namenode.http-address.myhadoop.nn2
       wxzz-pc0:50070
     

    
        dfs.namenode.servicerpc-address.myhadoop.nn1
        wxzz-pc:53310
     

     
        dfs.namenode.servicerpc-address.cluster1.nn2
        wxzz-pc0:53310
     

     
        dfs.ha.automatic-failover.enabled.cluster1
        true
     

     
            dfs.namenode.shared.edits.dir
             qjournal://wxzz-pc:8485;wxzz-pc0:8485;wxzz-pc1:8485/myhadoop
     

    
        dfs.client.failover.proxy.provider.myhadoop  org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
     

     
        dfs.journalnode.edits.dir
        /opt/hadoop-2.7.2/journal
     

     
        dfs.ha.fencing.methods
        sshfence
     

     
        dfs.ha.fencing.ssh.private-key-files
        /opt/hadoop-2.7.2/.ssh/id_rsa
     

    
       dfs.ha.fencing.ssh.connect-timeout
       1000
     

     
       dfs.namenode.handler.count
       10
     

    
       dfs.ha.automatic-failover.enabled.myhadoop
       true
     



3. mapred-site.xml 配置


    
        mapreduce.framework.name
        yarn
    

    
      mapreduce.jobhistory.address
      0.0.0.0:10020
    

    
      mapreduce.jobhistory.webapp.address
      0.0.0.0:19888
    



4.yarn-site.xml 配置

 

        
           yarn.resourcemanager.ha.enabled
           true
        

        
           yarn.resourcemanager.cluster-id
           rm-id
        

        
           yarn.resourcemanager.ha.rm-ids
           rm1,rm2
        

        
           yarn.resourcemanager.hostname.rm1
           wxzz-pc
        

        
           yarn.resourcemanager.hostname.rm2
           wxzz-pc0
        

        
           yarn.resourcemanager.zk-address
           wxzz-pc:2181,wxzz-pc0:2181,wxzz-pc1:2181
        

        
           yarn.nodemanager.aux-services
           mapreduce_shuffle
        



    六.服务启动

1.在各个Journal Node节点上,输入以下命令启动Journal Node

         sbin/hadoop-daemon.sh start journalnode

2.在[nn1]上,进行格式化,并启动

         bin/hdfs namenode -format

         sbin/hadoop-daemon.sh start namenode

3.在[nn2]上,同步[nn1]的元数据信息,并启动

         bin/hdfs namenode -bootstrapStandby

         sbin/hadoop-daemon.sh start namenode

   经过以上3步,[nn1]和[nn2]均处在standby状态

4.[nn1]节点上,将其转换为active状态

         bin/hdfs haadmin –transitionToActive --forcemanual nn1

5.在[nn1]上,启动所有datanode

         sbin/hadoop-daemons.sh start datanode

6.在[nn1]上,启动yarn

         sbin/start-yarn.sh

如果要关闭集群,在[nn1]上输入sbin/stop-all.sh即可。以后每次启动的时候,需要按照上面的步骤启动,不过不需要执行2 的格式化操作。

   

本文由职坐标整理发布,学习更多的大数据技术相关知识,请关注职坐标大技术云计算大技术技术频道!

本文由 @沉沙 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved

208小时内训课程