欢迎您访问365答案网,请分享给你的朋友!
生活常识 学习资料

一文解决idea配置spark版本问题

时间:2023-06-14

相信大家在idea中配置spark依赖时,总是会出现各种错误,结合我多次添加spark依赖经验,个人总结,在maven中添加spark依赖出现的错误,主要是因为版本不匹配引起,所下面我给出了两个添加依赖的方式,供大家参考:

第一种,明确scala的版本号

如上图所示,由于spark是基于scala语言的,故在添加spark依赖时,应该明确scala版本号, 故在添加spark依赖时,artifactID 包裹的位置应该是关于scala版本号,而version包裹才是spark的版本号,查看scala的版本的方式很简单,这里就不描述。

最后按照上图所示的案例,修改其他依赖即可。

第二种 不明确scala的版本号

当然有的人懒的查看scala的版本号(我就是这样),这时就可以使用第二种方式,具体依赖如下:

org.apache.spark spark-core_${scala.version} ${spark.version}

将具体版本号,用scala.version和spark.version替换,就可以了。

总结:

从成功率来看,第一种方式要比第二种要高,要想配置成功,少走弯路,多用第一种方式。

Copyright © 2016-2020 www.365daan.com All Rights Reserved. 365答案网 版权所有 备案号:

部分内容来自互联网,版权归原作者所有,如有冒犯请联系我们,我们将在三个工作时内妥善处理。