【发布时间】:2020-10-16 17:41:25
【问题描述】:
是否可以在 spark 中将多个列分解为一个新列?我有一个如下所示的数据框:
userId varA varB
1 [0,2,5] [1,2,9]
想要的输出:
userId bothVars
1 0
1 2
1 5
1 1
1 2
1 9
到目前为止我所尝试的:
val explodedDf = df.withColumn("bothVars", explode($"varA")).drop("varA")
.withColumn("bothVars", explode($"varB")).drop("varB")
这是行不通的。非常感谢任何建议。
【问题讨论】:
标签: scala apache-spark