Spark 出现Initial job has not accepted any resources
提交spark作业时,程序无法正常运行,一直显示
可能的原因是之前用ctrl +C终止spark程序的时候并没有能够让spark程序终止(正常是可以的,或者通过sparkUI kill掉程序),导致spark程序一直在后台死循环般的运行,让后来提交的spark程序一直处于等待状态中,如下
可以看到有个spark程序一直在运行,占用了所有的cpu内核,导致后面的程序一直处于等待中,
这个一直运行的spark程序可能是由于没有正确关闭导致的
解决办法:关闭终端重新打开即可