安装scala
网上百度一个,很简单,就不重复了 注意版本的选择
安装java
可以参考我以前的一篇文章,或者百度 注意需要1.8+
Hadoop 安装
如果需要源码编译spark,scala,java,Hadoop等版本的选择很重要,否则编译安装几天,你会发现各种报错,网上有人贡献了版本列表,可以考参考他们的,对于源码编译spark,Hadoop环境是必不可少的,可以参考我以前的文章
spark安装
下载地址 http://spark.apache.org/downloads.html
将文件上传到master机器上,然后解压 tar -xf spark-2.2.0-bin-hadoop2.7.tgz
配置slaves
cd spark-2.2.0-bin-hadoop2.7/confcp slaves.template slavesvi slaves,写入如下内容slave1slave2
配置spark-env.sh
cp spark-env.sh.template spark-env.shvi spark-env.sh写入如下内容export JAVA_HOME=你的java目录
将配置好的spark拷贝到slave1和slave2节点上
scp -r ~/bigdata/spark-2.2.0-bin-hadoop2.7 hadoop-jrq@slave1:~/bigdatascp -r ~/bigdata/spark-2.2.0-bin-hadoop2.7 hadoop-jrq@slave2:~/bigdata
配置环境变量
因为Hadoop的环境下也有start-all.sh等和spark相同的命令名,因此我自己不配置环境变量,以免混淆,启动时使用全路径就行了,真要配置请百度
启动
sh ~/bigdata/spark-2.2.0-bin-hadoop2.7/sbin/start-all.shhttp://master:8080/ 查看是否成功使用~/bigdata/spark-2.2.0-bin-hadoop2.7/bin/spark-shell --master spark://master:7077测试spark代码
集群spark-submit提交应用
将spark应用打成jar包,用filezilla工具将jar包上传至服务器spark-submit \--class 需要执行的类\--master spark://master:7077 \--deploy-mode client \--driver-memory 1g \--executor-memory 1g \--num-executors 2 \你的jar包名
文章转载自最可爱的小哥哥,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。




