【发布时间】:2018-03-21 04:36:43
【问题描述】:
我正在尝试使用“spark.jars”属性将我的自定义 jar 添加到 spark 作业中。 虽然我可以阅读添加 jar 的日志中的信息,但是当我检查添加到类路径中的 jar 时,我没有找到它。以下是我也尝试过的功能。
1)spark.jars
2)spark.driver.extraLibraryPath
3)spark.executor.extraLibraryPath
4)setJars(Seq[String])
但没有人添加 jar。我在 HDP 中使用 spark 2.2.0,文件保存在本地。 请让我知道我可能做错了什么。
第一个选项对我有用。Spark.jars 正在添加 jar,因为它在 Spark UI 中显示。
【问题讨论】:
标签: hadoop apache-spark apache-spark-sql spark-streaming