【发布时间】:2017-12-15 06:35:23
【问题描述】:
我一直在使用 Apache Kafka 实现 ETL 数据管道。我使用 Kafka Connect 进行提取和加载。
Connect 将读取源数据并以 JSON 的形式写入可用的 Kafka 主题实际数据。
在转换阶段,我想从 Kafka 主题读取 JSON 数据,然后需要根据一些自定义业务逻辑转换为 SQL 查询,然后需要写入输出 Kafka 主题。
到目前为止,我已经编写了一个生产者-消费者应用程序,它从主题中读取并进行转换,然后写入输出主题。
是否可以使用 Kafka 流 API 实现相同的功能?如果是,请提供一些样品。
【问题讨论】:
-
正如 Robin 所说,使用 Kafka Streams API 当然可以。您可以在此处找到示例:github.com/confluentinc/kafka-streams-examples
标签: java apache-kafka etl apache-kafka-streams stream-processing