【发布时间】:2014-06-25 00:47:18
【问题描述】:
假设我在 Spark Streaming 应用程序中有 2 个或更多执行器。
我已将批处理时间设置为 10 秒,因此每 10 秒启动一个作业,从我的 HDFS 读取输入。
如果每个作业的持续时间都超过 10 秒,那么启动的新作业会分配给一个空闲的 executor 对吗?
即使上一个没有完成?
我知道这似乎是一个显而易见的答案,但我在网站或与 Spark Streaming 相关的论文上没有找到任何关于作业调度的信息。
如果您知道一些解释所有这些内容的链接,我将非常感激看到它们。
谢谢。
【问题讨论】:
标签: job-scheduling apache-spark executor