【发布时间】:2026-02-05 16:10:01
【问题描述】:
我的数据框
df_a = spark.createDataFrame( [
(0, ["B","C","D","E"] , [1,2,3,4] ),
(1,["E","A","C"] , [1,2,3] ),
(2, ["F","A","E","B"] , [1,2,3,4]),
(3,["E","G","A"] , [1,2,3 ]),
(4,["A","C","E","B","D"] , [1,2,3,4,5])] , ["id","items",'rank'])
我希望我的输出为:
+---+----+----+
| id|item|rank|
+---+----+----+
| 0| B| 1|
| 0| C| 2|
| 0| D| 3|
| 0| E| 4|
| 1| E| 1|
| 1| A| 2|
| 1| C| 3|
| 2| F| 1|
| 2| A| 2|
| 2| E| 3|
| 2| B| 4|
| 3| E| 1|
| 3| G| 2|
| 3| A| 3|
| 4| A| 1|
| 4| C| 2|
| 4| E| 3|
| 4| B| 4|
| 4| D| 5|
+---+----+----+
我的数据框有 800 万行,当我尝试按如下方式压缩和分解时,它非常慢,并且使用 15 个执行程序和 25GB 内存永远运行作业
zip_udf2 = F.udf(
lambda x, y: list(zip(x, y)),
ArrayType(StructType([
StructField("item", StringType()),
StructField("rank", IntegerType())
]))
)
(df_a
.withColumn('tmp', zip_udf2("items", "rank"))
.withColumn("tmp", F.explode('tmp'))
.select("id", F.col("tmp.item"), F.col("tmp.rank"))
.show())
还有其他方法吗?我试过 rdd.flatMap 仍然没有对性能产生影响。 每行数组中的元素数量不同。
【问题讨论】:
-
zip_udf2做什么?可以分享一下吗? -
将 zip_udf2 添加到我的帖子中
标签: python pyspark apache-spark-sql explode