【问题标题】:Do we need modify the configurations on the workers of spark cluster?我们是否需要修改 spark 集群 worker 的配置?
【发布时间】:2023-03-28 00:27:01
【问题描述】:

我确实修改了spark集群驱动的配置,比如spark-defaults.conf和spark-env.sh这两个文件。我们是否需要对工人做同样的事情。它似乎不这样做,但我不确定。

【问题讨论】:

    标签: apache-spark


    【解决方案1】:

    Spark 属性 (spark-defaults.conf):

    没有。属性是特定于应用程序的,不是集群范围的,因此只能在 Spark 目录中设置。

    环境变量

    如果您需要自定义设置,可以。环境变量是特定于机器的,不依赖于应用程序。

    【讨论】:

      猜你喜欢
      • 2019-12-02
      • 1970-01-01
      • 2021-10-17
      • 2023-03-05
      • 2019-10-28
      • 1970-01-01
      • 2019-11-08
      • 2015-04-20
      • 1970-01-01
      相关资源
      最近更新 更多