Spark 出现Initial job has not accepted any resources

提交spark作业时,程序无法正常运行,一直显示

Spark 出现Initial job has not accepted any resources

可能的原因是之前用ctrl +C终止spark程序的时候并没有能够让spark程序终止(正常是可以的,或者通过sparkUI kill掉程序),导致spark程序一直在后台死循环般的运行,让后来提交的spark程序一直处于等待状态中,如下

Spark 出现Initial job has not accepted any resources

可以看到有个spark程序一直在运行,占用了所有的cpu内核,导致后面的程序一直处于等待中,

这个一直运行的spark程序可能是由于没有正确关闭导致的

解决办法:关闭终端重新打开即可