【发布时间】:2022-01-20 03:02:47
【问题描述】:
我有以下火花池配置。节点:3 到 10。
Spark 作业配置:
看到下面的分配后,看起来它正在使用池中的所有 10 个节点。 10 x 8 vCore = 80 vCore; 10 x 64 GB = 640 GB
但是,我已将执行程序的数量 - 最小值和最大值设置为 4 到 6。那么,不应该将最大值设置为 6 x 8 vCore 和 6 x 64 GB 吗?如果我在这里遗漏了什么,请更正。
【问题讨论】:
标签: azure-synapse