【发布时间】:2020-10-22 23:24:46
【问题描述】:
我正在尝试使用 PySpark SQL DataFrames 和 JDBC 连接在 MySql 上插入和更新一些数据。
我已成功使用 SaveMode.Append 插入新数据。有没有办法从 PySpark SQL 更新现有数据并在 MySql 表中插入新数据?
我要插入的代码是:
myDataFrame.write.mode(SaveMode.Append).jdbc(JDBCurl,mySqlTable,connectionProperties)
如果我更改为 SaveMode.Overwrite,它会删除整个表并创建一个新表,我正在寻找类似 MySql 中可用的“ON DUPLICATE KEY UPDATE”的东西
非常感谢您对此的任何帮助。
【问题讨论】:
标签: mysql apache-spark jdbc pyspark upsert