在spark-shell中运行启动命令

在spark-shell中运行启动命令

问题描述:

scala repl的-i选项不适用于spark-shell:它默默忽略该选项。具体做法是:在spark-shell中运行启动命令

spark-shell -i ~/.scalarc 

不加载~/.scalarc文件

是否有另一种方式加载启动(阶)命令到火花REPL?

这可能是一个更新的开发,但我只是试过spark-shell -i init.scala,它在完成启动后运行了我的init.scala脚本。

+0

哦,真好!现在检查出来 - 如果它能正常工作,我会奖励你的回答 – javadba

+2

它*现在工作 - 他们显然确实解决了这个问题。 – javadba

的解决方法是使用:负载

:load /Users/steve/.scalarc 

火花 - 壳不支持某些命令行参数也不支持:power模式。

更新星火2.0 spark-shell -i <initfilepath>现在支持。查看维杰接受的答案。