【发布时间】:2019-06-25 06:33:04
【问题描述】:
我在 Spring Boot 中配置了一个 Kafka 消费者。这是配置类:
@EnableKafka
@Configuration
@PropertySource({"classpath:kafka.properties"})
public class KafkaConsumerConfig {
@Autowired
private Environment env;
@Bean
public ConsumerFactory<String, GenericData.Record> consumerFactory() {
dataRiverProps.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, env.getProperty("bootstrap.servers"));
dataRiverProps.put(ConsumerConfig.GROUP_ID_CONFIG, env.getProperty("group.id"));
dataRiverProps.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, env.getProperty("enable.auto.commit"));
dataRiverProps.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, env.getProperty("auto.commit.interval.ms"));
dataRiverProps.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, env.getProperty("session.timeout.ms"));
dataRiverProps.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, env.getProperty("auto.offset.reset"));
dataRiverProps.put(KafkaAvroDeserializerConfig.SCHEMA_REGISTRY_URL_CONFIG, env.getProperty("schema.registry.url"));
dataRiverProps.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, KafkaAvroDeserializer.class.getName());
dataRiverProps.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, KafkaAvroDeserializer.class.getName());
return new DefaultKafkaConsumerFactory<>(dataRiverProps);
}
@Bean
public ConcurrentKafkaListenerContainerFactory<String, GenericData.Record> kafkaListenerContainerFactory() {
ConcurrentKafkaListenerContainerFactory<String, GenericData.Record> factory = new ConcurrentKafkaListenerContainerFactory<>();
factory.setConsumerFactory(consumerFactory());
return factory;
}
}
这是消费者:
@Component
public class KafkaConsumer {
@Autowired
private MessageProcessor messageProcessor;
@KafkaListener(topics = "#{'${kafka.topics}'.split(',')}", containerFactory = "kafkaListenerContainerFactory")
public void consumeAvro(GenericData.Record message) {
messageProcessor.process();
}
}
请注意,我使用 topics = "#{'${kafka.topics}'.split(',')}" 从属性文件中获取主题。 这就是我的 kafka.properties 文件的样子:
kafka.topics=pwdChange,pwdCreation
bootstrap.servers=aaa.bbb.com:37900
group.id=pwdManagement
enable.auto.commit=true
auto.commit.interval.ms=1000
session.timeout.ms=30000
schema.registry.url=http://aaa.bbb.com:37800
现在如果我要向订阅中添加一个新主题,比如 pwdExpire,然后修改 prop 文件如下:
kafka.topics=pwdChange,pwdCreation,pwdExpire
有没有办法让我的消费者在不重新启动服务器的情况下开始订阅这个新主题? 我找到了这篇帖子 Spring Kafka - Subscribe new topics during runtime,但文档中有关于 metadata.max.age.ms 的说明:
我们强制刷新的时间段(以毫秒为单位) 元数据,即使我们没有看到任何分区领导更改 主动发现任何新的代理或分区。
在我看来这行不通。感谢您的帮助!
【问题讨论】:
-
更多信息:我有一个计划任务,每 5 分钟运行一次以检查数据库。那么如果我们在数据库中添加一些控制值,有没有办法强制程序从属性文件中获取并再次消费呢?谢谢!
-
你可以查看 spring 云配置并使用注释 @refreshscope。我不确定这是否适用于配置注释类。
-
所以基本上你可以结合 spring config @refresh 和这个关于为生产者和消费者工厂重新初始化 spring bean 的链接 stackoverflow.com/questions/51218086/… 可能对你有用
-
我认为刷新范围在这里不起作用; AFAIK,刷新范围仅适用于被动 bean;侦听器容器是一个活动组件(实现
SmartLifecycle并由应用程序上下文启动/停止。 -
我没有在spring cloud上运行该应用。
标签: spring-boot configuration kafka-consumer-api spring-kafka