【发布时间】:2020-08-30 12:03:06
【问题描述】:
我有一个包含大量数据帧的字典,我打算将它们全部合并到 dbfs 中,尝试以下操作:
***df = sqlContext.createDataFrame([],schema)
for i in dict.keys():
df = df.union(dict[i])***
这需要很长时间才能执行!有没有一种有效的方法来合并它们?我假设我要去 ((((a+b)+c)+d)+e).... 这就是为什么更多时间
【问题讨论】:
-
这个答案有帮助吗?
标签: python scala pyspark apache-spark-sql databricks