【发布时间】:2015-03-10 06:07:41
【问题描述】:
我来自 MapReduce 背景,对 Spark 很陌生。我找不到解释 MapReduce 和 Spark 之间架构差异的文章。到目前为止,我的理解是 MapReduce 和 Spark 的唯一区别是“内存中”处理的概念。也就是说,Spark 具有映射/缩减阶段,它们可能在集群内的两个不同节点上运行。具有相同密钥的对被转移到同一个减速器,并且涉及一个洗牌阶段。我对么?或者在映射和归约阶段的完成方式上存在一些差异......
【问题讨论】:
标签: apache-spark