windows安装spark
参考https://www.zhihu.com/question/35973656
所需安装包如下:
jdk:jdk-7u51-windows-x64
scala(可安装的独立程序):scala-2.11.8spark:spark-2.1.0-bin-hadoop2.7
intellij:ideaIC-2016.3.7
scala(插件,压缩包)scala-intellij-bin-2016.3.8
hadood:spark-2.1.0-bin-hadoop2.7
打开intellij IDE后,需设置对应的SDK依赖(java、scala、spark)
选择“file”——> "Project structure"
设置依赖的JAVA SDK
设置java和scala SDK
如果需要设置spark的SDK,点击“+”,选择对应的jar包