【问题标题】:add prefix to spark rdd elements为 spark rdd 元素添加前缀
【发布时间】:2018-12-05 16:53:37
【问题描述】:

我的 rdd 中有两个字符串元素: “53 45 61”,“0 1 2”。 我想将其压缩并映射为键值对,为每个键添加前缀“C”

预期输出:

C53 -> 0, C45-> 1, C61-> 2 

目前这是我正在使用的代码

val prefix = "C"

newRDD = RDD.map(x=>(prefix + (x._1.split(" ")) zip x._2.split(" "))

接收结果如下:

53 -> 0, C45-> 1, 61-> 2 .

我在这里错过了什么?

【问题讨论】:

    标签: scala apache-spark hadoop pyspark apache-spark-sql


    【解决方案1】:

    您目前正在将前缀添加到 Array(53, 45, 61)(不知道您可以这样做)。你的意思是用x._1.split(" ").map(prefix + _) 将它添加到每个元素中吗?

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2023-04-02
      • 2013-04-15
      • 2017-07-28
      • 2021-09-26
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2020-01-27
      相关资源
      最近更新 更多