欢迎您访问365答案网,请分享给你的朋友!
生活常识 学习资料

spark提交jar到集群环境的步骤和注意事项

时间:2023-04-18

在开发环境(比如idea)调试通过以后,测试或者生产环境需要在独立的集群环境中允许。此时需要打包成jar。

1、打包jar

net.alchim31.maven scala-maven-plugin 3.2.2 testCompile org.apache.maven.plugins maven-assembly-plugin 3.1.0 jar-with-dependencies make-assembly package single

当项目中用到了集群环境中没有的jar包时,就需要通过maven-assembly-plugin插件将依赖的jar包添加到打包文件中。

2、代码中允许环境变动

在本地开发环境,通常可以使用local[*]设置执行环境配置,代码中如下:

SparkConf sc = new SparkConf().setMaster("local[*]") .setAppName("online count");

在提交的jar包的代码中,不应设置本地环境,而是通过提交命令指定执行环境。

SparkConf sc = new SparkConf().setAppName("online count");

3、提交任务

提交jar使用spark-submit程序。

./spark-submit --class com.demo.SSKafkaWordCountSA --master spark://bogon:7077 --deploy-mode cluster /opt/spark/demo/spark-demo-1.0-jar-with-dependencies.jar

--class com.demo.SSKafkaWordCountSA ,表示启动类--master spark://bogon:7077,表示集群主节点地址和端口--deploy-mode cluster,部署模式,参数可以是client和cluster,client表示客户端模式,此时提交程序终端不会退出,cluster表示集群模式,提交完成,submit终端程序退出。/opt/spark/demo/spark-demo-1.0-jar-with-dependencies.jar,程序jar包。4、任务监控

master节点web查看:

 worker节点查看:

job运行任务情况查看:

Copyright © 2016-2020 www.365daan.com All Rights Reserved. 365答案网 版权所有 备案号:

部分内容来自互联网,版权归原作者所有,如有冒犯请联系我们,我们将在三个工作时内妥善处理。