大数据技术 Hadoop生态圈各组件的启动及关闭脚本
沉沙 2018-09-25 来源 : 阅读 2605 评论 0

摘要:本篇教程探讨了大数据技术 Hadoop生态圈各组件的启动及关闭脚本,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

本篇教程探讨了大数据技术 Hadoop生态圈各组件的启动及关闭脚本,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

<


 
1. Hdfs (v 2.7.3)
1.1.启动集群

sbin/start-dfs.sh

注:这个启动脚本是通过ssh对多个节点的namenode、datanode、journalnode以及zkfc进程进行批量启动的。
1.2.启动NameNode

sbin/hadoop-daemon.sh start namenode

1.3.启动DataNode

sbin/hadoop-daemon.sh start datanode

1.4. 启动 MR的HistoryServer

sbin/mr-jobhistory-daemon.sh start historyserver

 
1.4.停止集群

sbin/stop-dfs.sh

1.5.停止单个进程

sbin/hadoop-daemon.sh stop zkfc
sbin/hadoop-daemon.sh stop journalnode
sbin/hadoop-daemon.sh stop datanode
sbin/hadoop-daemon.sh stop namenode

参考://www.cnblogs.com/jun1019/p/6266615.html
 
2. Yarn (v 2.7.3)
2.1.启动集群

sbin/start-yarn.sh

注:start-yarn.sh启动脚本只在本地启动一个ResourceManager进程,而3台机器上的nodemanager都是通过ssh的方式启动的。
2.2.启动ResouceMananger

sbin/yarn-daemon.sh start resourcemanager

2.3.启动NodeManager

sbin/yarn-daemon.sh start nodemanager

2.3.启动JobHistoryServer

sbin/yarn-daemon.sh start historyserver

2.4.停止集群

sbin/stop-yarn.sh

2.5.停止单个节点

sbin/yarn-daemon.sh stop resourcemanager
sbin/yarn-daemon.sh stop nodemanager

参考://www.cnblogs.com/jun1019/p/6266615.html
 
3. Zookeeper (v 3.4.5)
3.1.启动集群

bin/zkServer.sh start

3.2.启动单个节点

bin/zkServer.sh start

3.3.启动客户端

bin/zkCli.sh -server master:2181

 
4.Kafka (v 2.10-0.10.1.1)
4.1.启动集群

bin/kafka-server-start.sh -daemon config/server.properties

4.2.启动单个节点

bin/kafka-server-start.sh -daemon config/server.properties

4.3.创建Topic

bin/kafka-topics.sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test

4.4.列出Topic

bin/kafka-topics.sh --list --zookeeper master:2181

4.5.生产数据

bin/kafka-console-producer.sh --broker-list master:9092 --topic test

4.6.读取数据

bin/kafka-console-consumer.sh --zookeeper master:2181 --topic test --from-beginning

 
5.Hbase (v 1.2.4)
5.1.启动/停止集群

bin/start-hbase.shbin/stop-hbase.sh

5.2. 启动/停止HMaster

bin/hbase-daemon.sh start masterbin/hbase-daemon.sh stop master

5.3. 启动/停止HRegionServer

bin/hbase-daemon.sh start regionserverbin/hbase-daemon.sh stop regionserver

5.2.启动Shell

bin/hbase shell

 
6.Spark (v 2.1.0-bin-hadoop2.7)
6.1.启动程序
6.1.1. 本地

bin/spark-shell --master local

6.1.2.Standalone

bin/spark-shell --master spark://master:7077

6.1.3. Yarn Client

bin/spark-shell --master yarn-client

6.1.4. Yarn Cluster

bin/spark-shell --master yarn-cluster

7. Flume
7.1启动Agent

bin/flume-ng agent -n LogAgent -c conf -f conf/logagent.properties -Dflume.root.logger=DEBUG,console

 
8.Sqoop
8.1.导入

sqoop import \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--password sqoop \
--table cities

8.2.导出

sqoop export \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--password sqoop \
--table cities \
--export-dir cities

 
9.Hive
9.1 启动metastore

nohup hive --service metastore >> /home/zkpk/apache-hive-2.1.1-bin/metastore.log 2>&1  &

9.2 启动Hive server

nohup hive --service hiveserver2 >> /home/zkpk/apache-hive-2.1.1-bin/hiveserver.log 2>&1 &

9.2. 启动Shell

hive -h  -p 
beeline!connect jdbc:hive2://master:10000

10. Mysql
10.1.启动Shell

mysql -u -p

   

本文由职坐标整理发布,学习更多的大数据技术相关知识,请关注职坐标大技术云计算大技术技术频道!

本文由 @沉沙 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式AI+学习就业服务平台 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved