【问题标题】:Kafka Connect JDBC Sink CommitsKafka Connect JDBC 接收器提交
【发布时间】:2020-05-13 06:07:19
【问题描述】:

就该 JDBC 目标而言,我找不到 Kafka Connect JDBC Sink 的提交策略或参数。

它是每N 行提交还是在batch.size 到达时提交?不管N rows 是什么?批量大小或何时完成是有意义的。

【问题讨论】:

  • 这能回答你的问题吗? JDBC Sink Configuration Options batch.size
  • 如果我的答案不清楚,我可以编辑。并且代码是开源的,所以你可以在里面闲逛
  • 许多其他事情要做。 @cricket_007

标签: jdbc apache-kafka kafka-consumer-api apache-kafka-connect


【解决方案1】:

当 Kafka Connect 工作人员运行接收器任务时,它会从分配给该任务的主题分区中 will consume 消息:一旦打开分区进行写入,Connect 将使用 @987654322 开始从 Kafka 转发记录@API。

JDBC 接收器连接器使用transaction(可以通过连接器的使用者设置控制其大小)写入通过put(Collection) 方法传递的每批消息。

【讨论】:

  • 对,但是batch.size的相关性是什么?似乎是来源,消费者的东西都有点不同。
  • 你是指生产者batch.size属性吗?
  • 是的,先生。
  • 您绝对不必担心生产者或源连接器任务,因为接收器连接器不需要了解它们(仅关于 Kafka 主题)
  • 接收器连接器是否关心consumer.*属性...例如你可以设置consumer.max.poll.recordsconsumer.auto.offset.reset cc @theblue
猜你喜欢
  • 2019-06-17
  • 1970-01-01
  • 2018-02-06
  • 2020-01-15
  • 2020-05-29
  • 2019-02-23
  • 2020-01-11
  • 2021-09-09
  • 2020-07-31
相关资源
最近更新 更多