【发布时间】:2018-11-26 17:30:14
【问题描述】:
我正在运行 spark 作业,并注意到在几个阶段完成后,任务空闲了一段时间又开始了。
Spark 版本 - 2.2 和 Java 1.8
节点总数 - 3(包括主节点)
总核数 - 16 个(每个数据节点 8 个)
总内存 - 16 GB(每个 8)
下面是我使用的 spark submit 命令。
spark-submit --master yarn --deploy-mode cluster --executor-memory 1G --executor-cores 2 --num-executors 6 --jars jar1 --class wordcount wordcount.jar
任务进入空闲状态有什么原因吗?如果是,可能是什么原因。
请查看随附的屏幕截图,该屏幕截图显示一段时间内没有任何活动任务正在运行。
谢谢。
【问题讨论】:
标签: java scala apache-spark