摘要:本篇教程探讨了大数据技术 kafka的安装部署,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。
本篇教程探讨了大数据技术 kafka的安装部署,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。
<
为了安装过程对一些参数的理解,我先在这里提一下kafka一些重点概念,topic,broker,producer,consumer,message,partition,依赖于zookeeper,
kafka是一种消息队列,他的服务端是由若干个broker组成的,broker会向zookeeper,producer生成者对应一个topic主题生产的数据分成多个partition分区放在不同的broker中,
每个分区以message的形式存储对应的消息数据(包括key,value,offset,inserttime),另一方面就是consumer消费者要向消息队列拉数据的时候首先是通过访问zookeeper获取
一些元数据比如offset到对应的消息分区对应的读的地址继续读下去。我简单的画了个图,
接下来开始安装步骤了
1.解压
?1sudo tar -zxvf kafka_2.11-0.10.0.0.tgz[压缩包路径] -C /opt/modules/[解压的目标路径]
2.在kafka的根目录下新建个文件夹用于存储一些日志文件
?1mkdir kafka-logs
2.配置conf/server.properties文件
?1234broker.id=0 log.dirs=/opt/modules/kafka_2.11-0.10.0.0/kafka-logsnum.partitions=2zookeeper.connect=hadoop-senior01.kyhoon.com:2181 ,hadoop-senior02.kyhoon.com:2181
3.分发到另外一台服务器(这里只用了两台虚拟机服务器集群)并修改配置文件中的broker.id
?12scp -r ./kafka_2.11-0.10.0.0/ root@hadoop-senior02.kyhoon.com:/opt/modulesbroker.id =1
4.启动集群的Zookeeper
?1bin/zkServer.sh start
5.启动集群的kafka服务
?1nohup bin/kafka-server-start.sh config/server.properties &
6.创建topic
?1bin/kafka-topics.sh --zookeeper hadoop-senior01.kyhoon.com:2181 ,hadoop-senior02.kyhoon.com:2181 --topic test --replication-factor 1 --partitions 2 --create
7.查看topic
?1bin/kafka-topics.sh --zookeeper hadoop-senior01.kyhoon.com:2181 ,hadoop-senior02.kyhoon.com:2181 --list
8.创建生产者
?1bin/kafka-console-producer.sh --broker-list hadoop-senior01.kyhoon.com:9092 ,hadoop-senior02.kyhoon.com:9092 --topic test
9.创建消费者
?1bin/kafka-console-consumer.sh --zookeeper hadoop-senior01.kyhoon.com:2181 ,hadoop-senior02.kyhoon.com:2181 --topic test --from-beginning
10.在生产者端输入消息回车,在消费者端看到对应的消息则证明安装成功了
本文由职坐标整理发布,学习更多的大数据技术相关知识,请关注职坐标大技术云计算大技术技术频道!
您输入的评论内容中包含违禁敏感词
我知道了
请输入正确的手机号码
请输入正确的验证码
您今天的短信下发次数太多了,明天再试试吧!
我们会在第一时间安排职业规划师联系您!
您也可以联系我们的职业规划师咨询:
版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
沪公网安备 31011502005948号