【发布时间】:2016-12-16 03:19:05
【问题描述】:
在 Spark 中,一个执行器可以同时运行多个任务,可能是 2 个或 5 个或 6 个。
Spark 如何计算(或计算)要在同一个执行器中同时运行的任务数,即一个执行器中可以同时运行多少个任务?
一个执行器可能正在执行一个任务,但另一个任务可能被放置在同一个执行器上并发运行?这样做的标准是什么?
执行程序具有固定数量的内核和内存。由于我们在 Spark 中没有指定任务的内存和核心要求,所以如何计算一个执行器中可以同时运行多少个?
【问题讨论】:
-
你听说过多线程吗? Spark RDD 是不可变的,因此是线程安全的。阅读此en.wikipedia.org/wiki/Multithreading_(computer_architecture)。你以为的并行其实是在多线程环境下运行的
标签: apache-spark architecture internal