大数据技术 hadoop的client搭建
沉沙 2018-09-25 来源 : 阅读 2038 评论 0

摘要:本篇教程探讨了大数据技术 hadoop的client搭建,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

本篇教程探讨了大数据技术 hadoop的client搭建,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

<

1增加主机映射(与namenode的映射一样):
增加最后一行 

 [root@localhost ~]# su - root1 [root@localhost ~]# vi /etc/hosts
2 127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
3 ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
4 192.168.48.129    hadoop-master
5 [root@localhost ~]# 

2新建用户hadoop
建立hadoop用户组
新建用户,useradd -d /usr/hadoop -g hadoop -m hadoop (新建用户hadoop指定用户主目录/usr/hadoop 及所属组hadoop)
passwd hadoop 设置hadoop密码(这里设置密码为hadoop)

[root@localhost ~]# groupadd hadoop  [root@localhost ~]# useradd -d /usr/hadoop -g hadoop -m hadoop [root@localhost ~]# passwd hadoop

 
 
3配置jdk环境
本次安装的是hadoop-2.7.5,需要JDK 7以上版本。若已安装可跳过。
JDK安装可参考:https://www.cnblogs.com/shihaiming/p/5809553.html
或者直接拷贝master上的JDK文件更有利于保持版本的一致性。

[root@localhost java]# su - root[root@localhost java]# mkdir -p /usr/java[root@localhost java]# scp -r hadoop@hadoop-master:/usr/java/jdk1.7.0_79 /usr/java[root@localhost java]# lltotal 12drwxr-xr-x. 8 root root 4096 Feb 13 01:34 defaultdrwxr-xr-x. 8 root root 4096 Feb 13 01:34 jdk1.7.0_79drwxr-xr-x. 8 root root 4096 Feb 13 01:34 latest

 
设置Java及hadoop环境变量
确保/usr/java/jdk1.7.0.79存在
su - root
vi /etc/profile
 确保/usr/java/jdk1.7.0.79存在

1 unset i
2 unset -f pathmunge
3 JAVA_HOME=/usr/java/jdk1.7.0_79
4 CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
5 PATH=/usr/hadoop/hadoop-2.7.5/bin:$JAVA_HOME/bin:$PATH

设置生效(重要)
 

[root@localhost ~]# source /etc/profile
[root@localhost ~]# 

 
 
JDK安装后确认:
 

[hadoop@localhost ~]$ java -version
java version "1.7.0_79"
Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)
[hadoop@localhost ~]$ 

 
 
4设置hadoop的环境变量
拷贝namenode上已配置好的hadoop目录到当前主机
 

[root@localhost ~]# su - hadoop
Last login: Sat Feb 24 14:04:55 CST 2018 on pts/1
[hadoop@localhost ~]$ pwd
/usr/hadoop[hadoop@localhost ~]$ scp -r hadoop@hadoop-master:/usr/hadoop/hadoop-2.7.5 .The authenticity of host 'hadoop-master (192.168.48.129)' can't be established.ECDSA key fingerprint is 1e:cd:d1:3d:b0:5b:62:45:a3:63:df:c7:7a:0f:b8:7c.Are you sure you want to continue connecting (yes/no)? yesWarning: Permanently added 'hadoop-master,192.168.48.129' (ECDSA) to the list of known hosts.hadoop@hadoop-master's password: 


 

[hadoop@localhost ~]$ ll
total 0
drwxr-xr-x  2 hadoop hadoop   6 Feb 24 11:32 Desktop
drwxr-xr-x  2 hadoop hadoop   6 Feb 24 11:32 Documents
drwxr-xr-x  2 hadoop hadoop   6 Feb 24 11:32 Downloads
drwxr-xr-x 10 hadoop hadoop 150 Feb 24 14:30 hadoop-2.7.5
drwxr-xr-x  2 hadoop hadoop   6 Feb 24 11:32 Music
drwxr-xr-x  2 hadoop hadoop   6 Feb 24 11:32 Pictures
drwxr-xr-x  2 hadoop hadoop   6 Feb 24 11:32 Public
drwxr-xr-x  2 hadoop hadoop   6 Feb 24 11:32 Templates
drwxr-xr-x  2 hadoop hadoop   6 Feb 24 11:32 Videos
[hadoop@localhost ~]$ 

到此,Hadoop的客户端安装就算完成了,接下来就可以使用了。
执行hadoop命令结果如下,
 

[hadoop@localhost ~]$ hadoop
Usage: hadoop [--config confdir] [COMMAND | CLASSNAME]
  CLASSNAME            run the class named CLASSNAME
 or
  where COMMAND is one of:
  fs                   run a generic filesystem user client
  version              print the version
  jar <jar>            run a jar file
                       note: please use "yarn jar" to launch
                             YARN applications, not this command.
  checknative [-a|-h]  check native hadoop and compression libraries availability
  distcp <srcurl> <desturl> copy file or directories recursively
  archive -archiveName NAME -p <parent path> <src>* <dest> create a hadoop archive
  classpath            prints the class path needed to get the
  credential           interact with credential providers
                       Hadoop jar and the required libraries
  daemonlog            get/set the log level for each daemon
  trace                view and modify Hadoop tracing settings

Most commands print help when invoked w/o parameters.
[hadoop@localhost ~]$

 5.使用hadoop
创建本地文件

[hadoop@localhost ~]$ hdfs dfs -lsFound 1 itemsdrwxr-xr-x   - hadoop supergroup          0 2018-02-22 23:41 output[hadoop@localhost ~]$ vi my-local.txt 
hello boy!
yehyeh

上传本地文件至集群

[hadoop@localhost ~]$ hdfs dfs -mkdir upload
[hadoop@localhost ~]$ hdfs dfs -ls upload
[hadoop@localhost ~]$ hdfs dfs -ls 
Found 2 items
drwxr-xr-x   - hadoop supergroup          0 2018-02-22 23:41 output
drwxr-xr-x   - hadoop supergroup          0 2018-02-23 22:38 upload[hadoop@localhost ~]$ hdfs dfs -ls upload[hadoop@localhost ~]$ hdfs dfs -put my-local.txt upload[hadoop@localhost ~]$ hdfs dfs -ls uploadFound 1 items-rw-r--r--   3 hadoop supergroup         18 2018-02-23 22:45 upload/my-local.txt[hadoop@localhost ~]$ hdfs dfs -cat upload/my-local.txthello boy!yehyeh[hadoop@localhost ~]$ 

 ps:注意本地java版本与master拷贝过来的文件中/etc/hadoop-env.sh配置的JAVA_HOME是否要保持一致没有验证过,本文是保持一致的      

本文由职坐标整理发布,学习更多的大数据技术相关知识,请关注职坐标大技术云计算大技术技术频道!

本文由 @沉沙 发布于职坐标。未经许可,禁止转载。
喜欢 | 1 不喜欢 | 0
看完这篇文章有何感觉?已经有1人表态,100%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved

208小时内训课程