【Spark】使用spark-submit部署应用,Spark Application 运行的两种方式Client和Cluster

Spark为各种集群管理器提供了统一的工具来提交作业,这个工具是spark-submit。

如果在调用spark-submit时除了脚本或JAR包的名字之外没有其他的参数,那么这个Spark应用只会在本地执行。当我们希望将应用提交到Spark独立集群上的时候,可以将集群的地址和希望启动的每个执行器进程的大小作为附加标记提供。

--master标记指定要连接的集群URL;

【Spark】使用spark-submit部署应用,Spark Application 运行的两种方式Client和Cluster

spark-submit 的常见标记列表

【Spark】使用spark-submit部署应用,Spark Application 运行的两种方式Client和Cluster

其中, --deploy-mode,可以设置的模式有两种,client客户端模式,cluster集群模式;

client模式:驱动程序运行在提交spark-submit命令的机器上;

【Spark】使用spark-submit部署应用,Spark Application 运行的两种方式Client和Cluster

cluster模式:驱动程序运行在集群的一个工作节点上;

【Spark】使用spark-submit部署应用,Spark Application 运行的两种方式Client和Cluster