【发布时间】:2021-03-10 01:39:18
【问题描述】:
我想通过 jdbc sink 批量读取 5000 条记录,为此我在 jdbc sink 配置文件中使用了 batch.size:
name=jdbc-sink
connector.class=io.confluent.connect.jdbc.JdbcSinkConnector
tasks.max=1
batch.size=5000
topics=postgres_users
connection.url=jdbc:postgresql://localhost:34771/postgres?user=foo&password=bar
file=test.sink.txt
auto.create=true
但是当新记录插入源数据库时,batch.size 没有影响,因为记录被插入到数据库中。
如何实现批量插入5000个?
【问题讨论】:
标签: apache-kafka apache-kafka-connect confluent-platform connector