【发布时间】:2019-02-03 20:01:51
【问题描述】:
我一直在尝试在本地笔记本电脑上测试 spark 应用程序,然后再将其部署到集群(以避免每次都打包和部署我的整个应用程序),但在加载 spark 配置文件时遇到了困难。
当我在集群上运行我的应用程序时,我通常会向应用程序提供一个 spark 配置文件(使用 spark-submit 的 --conf)。这个文件有很多配置选项,因为这个应用程序与 Cassandra 和 HDFS 交互。但是,当我尝试在本地笔记本电脑上执行相同操作时,我不确定如何加载此配置文件。我知道我可能可以编写一段代码来获取配置文件的文件路径,然后通过并解析所有值并将它们设置在配置中,但我只是想知道是否有更简单的方法。
当前状态:
- 我将所需的配置文件放在我的 SPARK_HOME/conf 目录中,并将其命名为 spark-defaults.conf ---> 这没有得到应用,但是这个完全相同的文件使用 spark-submit 运行良好
- 对于本地模式,当我创建 spark 会话时,我将 Spark Master 设置为“local[2]”。我在创建 spark 会话时这样做,所以我想知道是否可以使用指定的配置文件创建此会话。
【问题讨论】:
标签: apache-spark testing integration-testing