在spark-shell中运行启动命令
问题描述:
scala
repl的-i
选项不适用于spark-shell
:它默默忽略该选项。具体做法是:在spark-shell中运行启动命令
spark-shell -i ~/.scalarc
不加载~/.scalarc
文件
是否有另一种方式加载启动(阶)命令到火花REPL?
答
这可能是一个更新的开发,但我只是试过spark-shell -i init.scala,它在完成启动后运行了我的init.scala脚本。
答
的解决方法是使用:负载
:load /Users/steve/.scalarc
火花 - 壳不支持某些命令行参数也不支持:power
模式。
更新星火2.0 spark-shell -i <initfilepath>
现在支持。查看维杰接受的答案。
哦,真好!现在检查出来 - 如果它能正常工作,我会奖励你的回答 – javadba
它*现在工作 - 他们显然确实解决了这个问题。 – javadba