【问题标题】:Spring data batch saveAll handling exceptionsSpring数据批量saveAll处理异常
【发布时间】:2021-06-21 15:06:06
【问题描述】:

我有一个 Spring Boot 应用程序,我通过从 kafka 收集数据来执行大量插入操作。我希望使用 saveAll 批量插入来提高性能。但是很少有数据会被认为是重复的,每当在我的代码中捕获 DataIntegrityViolationException 时,我都会更新它们。使用批量插入,有没有办法为每个重复的数据捕获此异常并使用 do update 代码进行处理?

【问题讨论】:

  • 您如何确定某些内容是否重复?你检查哪一栏?
  • 我对两列有唯一约束,损坏时抛出异常

标签: hibernate spring-data-jpa spring-data


【解决方案1】:

您可以使用 Hibernate 的 @SQLInsert 注释来更改插入的完成方式。详情请见Hibernate Transactions and Concurrency Using attachDirty (saveOrUpdate)

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2018-04-15
    • 2012-07-03
    • 2020-01-10
    • 2015-09-29
    • 1970-01-01
    • 2017-06-27
    • 1970-01-01
    • 2012-02-06
    相关资源
    最近更新 更多