相信大家在idea中配置spark依赖时,总是会出现各种错误,结合我多次添加spark依赖经验,个人总结,在maven中添加spark依赖出现的错误,主要是因为版本不匹配引起,所下面我给出了两个添加依赖的方式,供大家参考:
第一种,明确scala的版本号如上图所示,由于spark是基于scala语言的,故在添加spark依赖时,应该明确scala版本号, 故在添加spark依赖时,artifactID 包裹的位置应该是关于scala版本号,而version包裹才是spark的版本号,查看scala的版本的方式很简单,这里就不描述。
最后按照上图所示的案例,修改其他依赖即可。
第二种 不明确scala的版本号当然有的人懒的查看scala的版本号(我就是这样),这时就可以使用第二种方式,具体依赖如下:
将具体版本号,用scala.version和spark.version替换,就可以了。
总结:从成功率来看,第一种方式要比第二种要高,要想配置成功,少走弯路,多用第一种方式。