【发布时间】:2015-04-28 20:12:27
【问题描述】:
我有一个用 scala 编写的 spark 作业。我用
spark-shell -i <file-name>
运行作业。我需要将命令行参数传递给作业。现在,我通过一个 linux 任务调用脚本,我在其中做
export INPUT_DATE=2015/04/27
并使用环境变量选项来访问值:
System.getenv("INPUT_DATE")
有没有更好的方法来处理 Spark-shell 中的命令行参数?
【问题讨论】:
-
为什么要在 spark-shell 中传递参数?!?为什么不使用 spark-submit 脚本正常运行作业??
-
仍在运行 0.9.1in CDH 4.6。 spark-submit 尚不可用。
-
如果您只运行 2 行 scala 代码,您想要这样做的另一个原因是避免构建项目的麻烦。请参阅下面关于我如何解决此问题的答案。
标签: apache-spark