沉沙
2018-10-08
来源 :
阅读 1918
评论 0
摘要:本篇教程探讨了大数据技术 搭建Hadoop平台详解,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。
本篇教程探讨了大数据技术 搭建Hadoop平台详解,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。
<
资料准备:
Hadoop-2.7.1下载:https://pan.baidu.com/s/1KEerpDkBrd3zd0L8SAl2pA 密码:l8m4
Jdk下载(文中使用1.7,这里给得1.8,不影响使用)://pan.baidu.com/s/1kVEEJ91 密码:r22t
安装步骤:
0.关闭防火墙
执行:service iptables stop 这个指令关闭完防火墙后,如果重启,防火墙会重新建立,所以,如果想重启后防火墙还关闭,需额外执行:chkconfig iptables off
1.配置主机名
执行: vim /etc/sysconfig/network
编辑主机名
注意:主机名里不能有下滑线,或者特殊字符#$,不然会找不到主机导致无法启动
这种方式更改主机名需要重启才能永久生效,因为主机名属于内核参数。
如果不想重启,可以执行:hostname hadoop01。但是这种更改是临时的,重启后会恢复 原主机名。
所以可以结合使用。先修改配置文件,然后执行:hostname hadoop01 。可以达到不重启或重启都是主机名都是同一个的目的
2.配置hosts文件
执行:vim /etc/hosts(192.168.161.41是我自己机器的ip,这里必须写入自己本机的ip)
3.配置免秘钥登录
在hadoop01节点执行(执行过hostname hadoop01):
执行:ssh-keygen
然后一直回车,直到出现类似的图形:
生成节点的公钥和私钥,生成的文件会自动放在/root/.ssh目录下
然后把公钥发往远程机器,比如hadoop01向hadoop02发送
执行:ssh-copy-id root@hadoop01
此时,hadoop02节点就是把收到的hadoop秘钥保存在
/root/.ssh/authorized_keys 这个文件里,这个文件相当于访问白名单,凡是在此白明白存储的 秘钥对应的机器,登录时都是免密码登录的。
当hadoop01再次通过ssh远程登录hadoop02时,发现不需要输入密码了。
在hadoop02节点执行上述上述步骤,让hadoop02节点连接hadoop01免密码登录
4.配置自己节点登录的免密码登录
如果是单机的伪分布式环境,节点需要登录自己节点,即hadoop01要登录hadoop01
但是此时是需要输入密码的,所以要在hadoop01节点上
执行:ssh-copy-id root@hadoop01(上面已经给出)
5.安装和配置jdk
1)安装jdk
mkdir /usr/local/src/java
rz 上传jdk tar包
tar -xvf jdk-7u51-linux-x64.tar.gz
配置环境变量
1:vi /etc/profile
2:在尾行添加
#set java environment
JAVA_HOME=/usr/local/src/java/jdk1.7.0_51
JAVA_BIN=/usr/local/src/java/jdk1.7.0_51/bin
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME JAVA_BIN PATH CLASSPATH
保存退出
3:source /etc/profile 使更改的配置立即生效
4:java -version 查看JDK版本信息。如显示1.7.0证明成功。
执行: vi /etc/profile
2)在尾行添加
#set java environment
JAVA_HOME=/usr/local/src/java/jdk1.7.0_51
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOMEPATH CLASSPATH
保存退出
3)source /etc/profile 使更改的配置立即生效
4)java -version 查看JDK版本信息。如显示1.7.0证明成功。
6.上传和解压hadoop安装包
执行:tar -xvf hadoop……(包名)
目录说明:
bin目录:命令脚本
etc/hadoop:存放hadoop的配置文件
lib目录:hadoop运行的依赖jar包
sbin目录:启动和关闭hadoop等命令都在这里
libexec目录:存放的也是hadoop命令,但一般不常用
最常用的就是bin和etc目录
7.配置hadoop-env.sh
这个文件里写的是hadoop的环境变量,主要修改hadoop的java_home路径
切换到 etc/hadoop(cd etc/hadoop)目录
执行:vim hadoop-env.sh
修改java_home路径和hadoop_conf_dir 路径(自己本机的安装目录)
然后执行:source hadoop-env.sh 让配置立即生效
8.修改core-site.xml
在 etc/hadoop 目录下
执行:vim core-site.xml
配置如下:
9.修改vim hdfs-site .xml
配置如下:
10.修改vim mapred-site.xml
这个文件初始时是没有的,有的是模板文件,mapred-site.xml.template
所以需要拷贝一份,并重命名为mapred-site.xml
执行:cp mapred-site.xml.template mapred-site.xml
配置如下:
yarn是资源协调工具,
11.修改vim yarn-site.xml
配置如下:
12.配置vim slaves文件
13.配置hadoop的环境变量
配置代码:vim /etc/profile
HADOOP_HOME=/usr/soft/hadoop-2.7.1JAVA_HOME=/usr/local/src/java/jdk1.7.0_51
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export JAVA_HOME PATH CLASSPATH HADOOP_HOME
14.格式化namenode
为什么要格式化?
执行:hadoop namenode -format
如果不好使,可以重启linux
当出现:successfully,证明格式化成功
15.启动Hadoop
cd hadoop-2.7.1/sbin (进入hadoop安装目录后执行)
./start-dfs.sh或者sh start-dfs.sh
16.停止Hadoop
./stop-dfs.sh 或者sh stop-dfs.sh
注:如果在启动时,报错:Cannot find configuration directory: /etc/hadoop
解决办法:
编辑etc/hadoop下的hadoop-env.sh 文件,添加如下配置信息:
export HADOOP_CONF_DIR=/home/software/hadoop-2.7.1/etc/hadoop
然后执行source hadoop-env.sh 使配置立即生效
执行:start-yarn.sh 启动yarn相关的服务
在浏览器访问:
192.168.161.41:50070 来访问 hadoop 的管理页面(必须是自己本机的ip)
本文由职坐标整理发布,学习更多的大数据技术相关知识,请关注职坐标大技术云计算大技术技术频道!
喜欢 | 0
不喜欢 | 0
您输入的评论内容中包含违禁敏感词
我知道了

请输入正确的手机号码
请输入正确的验证码
您今天的短信下发次数太多了,明天再试试吧!
我们会在第一时间安排职业规划师联系您!
您也可以联系我们的职业规划师咨询:
版权所有 职坐标-一站式AI+学习就业服务平台 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
沪公网安备 31011502005948号