Spark-IDEA创建Spark项目(scala)

安装JDK、Scala、IDEA见我的其他博客有详细的介绍。

启动idea:

Spark-IDEA创建Spark项目(scala)

进入到某个文件夹:

Spark-IDEA创建Spark项目(scala)

File-NewProject:Scala-IDEA

Spark-IDEA创建Spark项目(scala)

Project Name:

Spark-IDEA创建Spark项目(scala)

File-Project Structure-Modules:新建文件夹,设为source

Spark-IDEA创建Spark项目(scala)

添加Library:

scala SDK:

Spark-IDEA创建Spark项目(scala)

Spark-IDEA创建Spark项目(scala)

Java Library:选择$SPARK_HOME/jar/下的所有包:

Spark-IDEA创建Spark项目(scala)

因为太多分两次导入的所有会有两个:

Spark-IDEA创建Spark项目(scala)

Spark-IDEA创建Spark项目(scala)

新建包,创建文件:

Spark-IDEA创建Spark项目(scala)

下面的案例使用scala.class。注意hadoop,spark要开启。

相同的案列的spark-shell实现在:https://blog.****.net/qq_25948717/article/details/83114400

直接在spark-shell下的案列不需要new出conf,sc,启动时已经初始化了,代码编写时却不能省略。

在IDEA里面编写的代码既可以直接在IDEA中运行或调试,也可以打包后提交到spark-shell。

Spark-IDEA创建Spark项目(scala)

1.直接运行:

 运行之前需要进行编译:Build-Make Project或者Ctrl+F9

  Spark-IDEA创建Spark项目(scala)

  编译通过后,在代码界面单击鼠标右键,选择运行程序弹出“运行/调试配置”,或者下面:

Spark-IDEA创建Spark项目(scala)

选择输入设置的两个路径参数:路径是本地里面的,不是hdfs里面的,因为这个本地开发。Main Class也要选

Spark-IDEA创建Spark项目(scala)

单击Run-Run或Shift+F10运行:

运行可能会出现问题,把scala-SDK换成2.11版就行。

2.打包运行

Spark-IDEA创建Spark项目(scala)

Spark-IDEA创建Spark项目(scala)

设置包的输出路经:

Spark-IDEA创建Spark项目(scala)

设置完毕后:

Spark-IDEA创建Spark项目(scala)

Spark-IDEA创建Spark项目(scala)

生成项目的打包文件:

将文件提交到spark集群就可以了:

Spark-IDEA创建Spark项目(scala)

提交:

Spark-IDEA创建Spark项目(scala)