【发布时间】:2017-03-24 22:27:38
【问题描述】:
我正在运行一个使用spark-submit 在 Java 中实现的 Spark 作业。我想将参数传递给这项工作 - 例如一个 time-start 和 time-end 参数来参数化 Spark 应用程序。
我尝试的是使用
--conf key=value
spark-submit 脚本的选项,但是当我尝试使用
sparkContext.getConf().get("key")
我得到一个例外:
Exception in thread "main" java.util.NoSuchElementException: key
此外,当我使用 sparkContext.getConf().toDebugString() 时,我在输出中看不到我的值。
进一步通知由于我想通过 Spark REST 服务提交我的 Spark 作业,我不能使用操作系统环境变量等。
有没有可能实现这个?
【问题讨论】:
-
key=value在示例中应该是spark配置属性或您的“自定义”属性? -
我想要一个“自定义”属性,可以从我的 Spark 作业(Java 应用程序)中访问
标签: java apache-spark command-line