【发布时间】:2021-09-09 23:00:05
【问题描述】:
我正在使用 confluent 社区版进行简单设置,该设置包括一个调用 Kafka 休息代理的休息客户端,然后使用提供的 jdbc 接收器连接器将该数据推送到一个 oracle 数据库中。
我注意到如果存在 sql 异常,例如如果实际数据的长度大于实际数据的长度(定义的列长度),则任务停止,如果我重新启动它,它会尝试插入错误的条目它停止了。它不会插入其他条目。
难道不是我可以记录错误条目并让任务继续插入其他数据的方法吗?
【问题讨论】:
-
请阅读minimal reproducible example 并相应地增强您的问题。不要解释你的代码应该做什么,在你的问题中发布代码的重要部分。如果您的代码会按照您的意愿执行,那么您就不会在这里发布...
-
没有写代码。 JDBC 接收器连接器是一个提供的连接器。我要问的是有没有可以在 confluent kafka 中完成的配置,即使出现异常也可以继续插入记录?
标签: apache-kafka-connect confluent-platform