【发布时间】:2020-02-29 11:33:02
【问题描述】:
我正在使用 Spark Databricks 集群并希望添加自定义的 Spark 配置。
有一个关于此的 Databricks 文档,但我不知道应该如何以及应该进行哪些更改。有人可以分享配置 Databricks 集群的示例吗。
有什么方法可以查看 Databricks 集群中 Spark 的默认配置。
【问题讨论】:
标签: apache-spark databricks azure-databricks
我正在使用 Spark Databricks 集群并希望添加自定义的 Spark 配置。
有一个关于此的 Databricks 文档,但我不知道应该如何以及应该进行哪些更改。有人可以分享配置 Databricks 集群的示例吗。
有什么方法可以查看 Databricks 集群中 Spark 的默认配置。
【问题讨论】:
标签: apache-spark databricks azure-databricks
要微调 Spark 作业,您可以在集群配置中提供自定义 Spark configuration 属性。
[OR]
当您使用集群 API 配置集群时,请在创建集群请求或编辑集群请求的 spark_conf 字段中设置 Spark 属性。
要为所有集群设置 Spark 属性,请创建一个全局初始化脚本:
%scala
dbutils.fs.put("dbfs:/databricks/init/set_spark_params.sh","""
|#!/bin/bash
|
|cat << 'EOF' > /databricks/driver/conf/00-custom-spark-driver-defaults.conf
|[driver] {
| "spark.sql.sources.partitionOverwriteMode" = "DYNAMIC"
|}
|EOF
""".stripMargin, true)
参考:Databricks - Spark Configuration
示例:你可以选择任何你想测试的spark配置,这里我要指定“spark.executor.memory 4g”,自定义配置看起来像这个。
集群创建完成后,可以查看自定义配置的结果。
【讨论】: