【发布时间】:2016-05-10 08:29:46
【问题描述】:
如果我在 spark shell 中运行一个 spark 程序,该程序是否可能会占用整个 hadoop 集群数小时?
通常有一个名为 num-executors 和 executor-cores 的设置。
spark-shell --driver-memory 10G --executor-memory 15G --executor-cores 8
但是如果它们没有被指定并且我只是运行“spark-shell”......它会消耗整个集群吗?还是有合理的默认值。
【问题讨论】:
标签: apache-spark