【发布时间】:2019-01-15 18:48:06
【问题描述】:
我正在构建一个微服务组件,默认情况下它将使用由其他 (SCS) 组件生成的 Spring Cloud Stream (SCS) Kafka 消息。
但我还需要使用来自使用 Confluent API 的其他组件的 Kafka 消息。
我有一个示例存储库,它显示了我正在尝试做的事情。
https://github.com/donalthurley/KafkaConsumeScsAndConfluent
这是下面带有 SCS 输入绑定和融合输入绑定的应用程序配置。
spring:
application:
name: kafka
kafka:
consumer:
properties.schema.registry.url: http://192.168.99.100:8081
cloud:
stream:
kafka:
binder:
brokers: PLAINTEXT://192.168.99.100:9092
# configuration:
# specific:
# avro:
# reader: true
# key:
# deserializer: org.apache.kafka.common.serialization.StringDeserializer
# value:
# deserializer: io.confluent.kafka.serializers.KafkaAvroDeserializer
bindings:
inputConfluent:
contentType: application/*+avro
destination: confluent-destination
group: input-confluent-group
inputScs:
contentType: application/*+avro
destination: scs-destination
group: input-scs-group
通过上述配置,我使用 SCS 默认配置创建了两个消费者 例如 org.apache.kafka.common.serialization.ByteArrayDeserializer 类是两个输入绑定的值反序列化器。
如果我删除上述配置中的 cmets,我会得到两个消费者,配置是从我的 Confluent 客户端发送的 例如 io.confluent.kafka.serializers.KafkaAvroDeserializer 类是两个输入绑定的值反序列化器。
我了解,因为配置在 Kafka 活页夹上,它将适用于使用该活页夹定义的所有消费者。
我有什么方法可以定义这些特定属性,以便它们仅适用于汇合特定消费者绑定,而所有其他输入绑定都可以使用默认的 SCS 配置?
【问题讨论】:
标签: java spring apache-kafka spring-cloud-stream