【发布时间】:2016-12-01 16:49:37
【问题描述】:
如果我将哈希分区器应用于 Spark 的 aggregatebykey 函数,即myRDD.aggregateByKey(0, new HashPartitioner(20))(combOp, mergeOp)
myRDD 在使用 combOp 和 mergeOp 聚合其键/值对之前是否先重新分区?还是 myRDD 先经过 combOp 和 mergeOp,然后使用 HashPartitioner 对生成的 RDD 重新分区?
【问题讨论】:
标签: scala apache-spark rdd