【发布时间】:2026-01-16 12:40:02
【问题描述】:
嗯,我正在使用 PySpark,我有一个 Spark 数据框,我使用它将数据插入到 mysql 表中。
url = "jdbc:mysql://hostname/myDB?user=xyz&password=pwd"
df.write.jdbc(url=url, table="myTable", mode="append")
我想通过列值和特定数字的总和来更新列值(不在主键中)。
我尝试了不同的模式(追加、覆盖)DataFrameWriter.jdbc() 函数。
我的问题是我们如何更新列值,就像在 mysql 中使用 ON DUPLICATE KEY UPDATE 一样,同时将 pyspark 数据帧数据插入表中。
【问题讨论】:
-
您找到解决方案了吗?
标签: apache-spark apache-spark-sql pyspark spark-dataframe pyspark-sql