【发布时间】:2016-02-06 06:11:49
【问题描述】:
我正在使用 Spark 1.5.1 和 Scala 2.10.5
对于 RDD 的每个元素,我都有一个 RDD[Array[String], Vector]:
- 我想把
Array[String]中的每个String合并起来 用Vector创建一个元组(String, Vector),这一步将导致从初始RDD的每个元素创建几个元组
目标是通过构建一个元组的RDD来结束:RDD[(String,
Vector)],这个RDD包含上一步创建的所有元组。
谢谢
【问题讨论】:
标签: scala apache-spark rdd