如何测试自己搭建的spark+idea环境是否正常执行

一:这里有篇博客讲解了2种办法,博主采用了里面的第二种,并做了一点修改

https://blog.****.net/a532672728/article/details/79455024

二:

如何测试自己搭建的spark+idea环境是否正常执行

如何测试自己搭建的spark+idea环境是否正常执行 点next

如何测试自己搭建的spark+idea环境是否正常执行 点Finish

接下来是导入scala环境 + spark jar包

如何测试自己搭建的spark+idea环境是否正常执行

如何测试自己搭建的spark+idea环境是否正常执行 点+号

选择java选项,定位到你解压的spark那个目录下的jars目录,假如你的spark是在e盘:E:\spark\jars

如何测试自己搭建的spark+idea环境是否正常执行

然后是scala,选scala SDK 如何测试自己搭建的spark+idea环境是否正常执行, 然后选择你下载的那个版本,选择好后 会提示你 Do you really want to replace old library 'scala-sdk-2.**'? 点No即可

现在你的那个界面应该长这样:如何测试自己搭建的spark+idea环境是否正常执行  -》 apply  -> ok

 

 

上面的环境以及搭建完毕

如何测试自己搭建的spark+idea环境是否正常执行

新建个scala class,Test.scala,记得改掉默认的calss为object

如何测试自己搭建的spark+idea环境是否正常执行

 

run 'Test' 如何测试自己搭建的spark+idea环境是否正常执行 最终出现这种东西就证明成功了

 

如何测试自己搭建的spark+idea环境是否正常执行