【发布时间】:2020-06-15 21:21:25
【问题描述】:
我正在使用 Confluent's Kafka s3 connect 将数据从 apache Kafka 复制到 AWS S3。对于我们的用例,我们希望将数据从 Kafka 复制到多个 S3 存储桶。
一个 S3 存储桶具有这样的分区策略 -
s3.bucket.name=kafka-s3-test1
partitioner.class=io.confluent.connect.storage.partitioner.TimeBasedPartitioner
timestamp.extractor=Wallclock
locale=US
timezone=UTC
partition.duration.ms=3600000
path.format='ds'=YYYY-MM-dd/'hour'=HH
而另一个 S3 存储桶具有这样的分区策略 -
s3.bucket.name=kafka-s3-test2
partitioner.class=com.custom.CustomFieldPartitioner
partition.field.name= eventPlatform, eventType, eventDate
一种明显的方法是为每个接收器维护 2 个不同的 kafka-connect 集群。 我想知道是否有办法将相同的数据发送到 2 个不同的接收器(如这个用例)? 如果没有,我该如何扩展这个库来实现相同的功能?
我们将不胜感激。
【问题讨论】:
标签: amazon-s3 apache-kafka apache-kafka-connect