大数据技术 Hadoop/Spark开发环境搭建
沉沙 2018-09-21 来源 : 阅读 1266 评论 0

摘要:本篇教程探讨了大数据技术 Hadoop/Spark开发环境搭建,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

本篇教程探讨了大数据技术 Hadoop/Spark开发环境搭建,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

<

看到本文的朋友们有福了,除去下载软件的时间,基本一个小时之内可以全部搞定。大道至简,很多东西要是不说清楚,写一万句废话也是没用的。

IDE:eclipse-Scala-Ide
hadoop:hadoop-2.6.2
spark:spark-1.2.0

一、hadoop开发环境
第一种方法:
直接用hadoop eclipse插件,再进行简单的配置就可以了。
第二种方法:

直接导入hadoop的jar包,可使用maven工程实现自动导入,也可手动导入
手动导入:
hdfs和mapred:
C:\Software\hadoop\hadoop-2.6.2\share\hadoop\common\
C:\Software\hadoop\hadoop-2.6.2\share\hadoop\common\lib\
C:\Software\hadoop\hadoop-2.6.2\share\hadoop\hdfs\
hive:
C:\Software\hadoop\apache-hive-2.1.0-bin\lib\
hbase:
E:\Hadoop\hbase-0.94.2-security\hbase-0.94.2-security.jar
E:\Hadoop\hbase-0.94.2-security\hbase-0.94.2-security-tests.jar
E:\Hadoop\hbase-0.94.2-security\lib\
其实不用导入那么多包,以后用maven来自动导入。
导入后,选中这些jar包,Build Path->Add to Build Path
 

二、spark开发环境


下载scala-ide。位数需要与本地jdk版本位数一致,直接解压即可作为eclipse使用
新建scala project
在工程名处右击点Properties->Java Builder Path->Libraries->Add External JARs->添加编译后spark assembly包(可以直接从官网下载编译后的版本里找出来)
有很多时候需要配置Run Configurations,重点关注Main和Arguments两项里的内容。如果没有部署spark,可以直接在VM arguments里添加-Dspark.master=local,或者直接在代码里添加conf.setMaster("local")
so easy!

   

本文由职坐标整理发布,学习更多的大数据技术相关知识,请关注职坐标大技术云计算大技术技术频道!

本文由 @沉沙 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved

208小时内训课程