Intellij 创建spark项目的两种方式

Intellij是进行scala开发的一个非常好用的工具,可以非常轻松查看scala源码,当然用它来开发Java也是很爽的,之前一直在用Scala Ide和Eclipse,知道用Maven创建Scala项目工程,一直卡在怎样用Intellij创建Spark工程上,通过搜集资料现把方法总结一下。搜资料发现方式有很多种,但是有的不适合自己的软件版本,也有的比较旧,方法不适用于现在新版本的更新。如果你不知道怎么用Intellij去创建一个Spark项目,这里介绍两种方法。

首先声明一下自己的环境:

  • Spark 2.3.0
  • Java1.8.0_161
  • Scala 2.11.8
    Intellij 创建spark项目的两种方式

下面介绍具体的方法

Intellij 创建spark项目方法一

1.打开Intellij,创建完Project之后,选择File->new Project->Java->填写Project name

Intellij 创建spark项目的两种方式

新窗口打开得到下面的界面

Intellij 创建spark项目的两种方式

2.接着选择File->Projec Structure->Libraries->点击绿色+->Java->找到spark-2.3.0-bin-hadoop2.7也就是spark所在的文件夹->选择jars文件夹导入所有jar包,然后一路apply,ok就可以了。

Intellij 创建spark项目的两种方式

3.这个时候还没有导入关于Scala的包,所以下面导入,这里Scala版本是2.11.8(自己也安装了2.12.5的版本,可能版本高不兼容,程序一直运行不通过,装了2.11.8程序就跑通了)

File->Projec Structure->Libraries->点击绿色+->Scala2.11.8->OK
Intellij 创建spark项目的两种方式

这个时候就把Java包,Spark依赖包,Scala依赖包全部导入了。正常情况可以看到下图红色边框里面的变化。

Intellij 创建spark项目的两种方式

总结一下这种方式需要引入scala sdk以及spark的jar包。

Intellij 创建spark项目方法二

另外一种方式是见下图

1.选择File->New Project->Scala->IDEA,选择next

Intellij 创建spark项目的两种方式

这样就把Java和Scala的Jar包直接导入进来了,还缺少Spark的jar包,这时候和上面导入Spark的包一样,方法是:

2.直接File->Projec Structure->Libraries->点击绿色+->Java->找到spark-2.3.0-bin-hadoop2.7也就是spark所在的文件夹->选择jars文件夹导入所有jar包,然后一路apply,ok就可以了。

最后的结果也是像下面红框这样,和方法一最终的结果一样:
Intellij 创建spark项目的两种方式

下面就可以使用Spark具体的写代码跑程序了。

【总结】
其实方法一和方法二本质上是一样的,目的都是导入正常的Java包,Scala包,Spark包。所以核心就是导入这类包。需要注意的是各自的版本号,因为自己因为版本问题出现过问题,重新安装相应的版本问题就迎刃而解了。


关于Maven创建Scala项目以及打Jar包到集群环境运行代码可以参考下面两篇文章:

IntelliJ IDEA创建Maven项目–Scala

IntelliJ IDEA打jar包–scala class–提交到java或者spark运行