【发布时间】:2020-07-20 09:40:09
【问题描述】:
我正在 Spark 提交脚本中安装 Spark Atlas 连接器 (https://github.com/hortonworks-spark/spark-atlas-connector) 由于安全限制,我无法将 atlas-application.properties 放入 spark/conf 存储库中。
我在 spark-submit 中使用了这两个选项:
--driver-class-path "spark.driver.extraClassPath=hdfs:///directory_to_properties_files" \
--conf "spark.executor.extraClassPath=hdfs:///directory_to_properties_files" \
当我启动 spark-submit 时,我遇到了这个问题:
20/07/20 11:32:50 INFO ApplicationProperties: Looking for atlas-application.properties in classpath
20/07/20 11:32:50 INFO ApplicationProperties: Looking for /atlas-application.properties in classpath
20/07/20 11:32:50 INFO ApplicationProperties: Loading atlas-application.properties from null
【问题讨论】:
-
这能回答你的问题吗? loading properties with spark-submit
-
属性文件已经在 HDFS 中可用,而不是在 spark-submit 中传递参数或配置。编写代码以从 spark 代码中的 hdfs 读取数据
标签: apache-spark hadoop apache-atlas