【问题标题】:Using Kafka Streams for Custom transformation使用 Kafka Streams 进行自定义转换
【发布时间】:2017-12-15 06:35:23
【问题描述】:

我一直在使用 Apache Kafka 实现 ETL 数据管道。我使用 Kafka Connect 进行提取和加载。

Connect 将读取源数据并以 JSON 的形式写入可用的 Kafka 主题实际数据。

在转换阶段,我想从 Kafka 主题读取 JSON 数据,然后需要根据一些自定义业务逻辑转换为 SQL 查询,然后需要写入输出 Kafka 主题。

到目前为止,我已经编写了一个生产者-消费者应用程序,它从主题中读取并进行转换,然后写入输出主题。

是否可以使用 Kafka 流 API 实现相同的功能?如果是,请提供一些样品。

【问题讨论】:

标签: java apache-kafka etl apache-kafka-streams stream-processing


【解决方案1】:

查看Kafka StreamsKSQL。 KSQL 在 Kafka Streams 之上运行,并为您提供了一种非常简单的方法来构建您正在谈论的那种聚合。

这是一个在 KSQL 中聚合数据流的示例

SELECT PAGE_ID,COUNT(*) FROM PAGE_CLICKS WINDOW TUMBLING (SIZE 1 HOUR) GROUP BY PAGE_ID

查看更多信息:https://www.confluent.io/blog/using-ksql-to-analyse-query-and-transform-data-in-kafka

您可以获取 KSQL 的输出,它实际上只是一个 Kafka 主题,并通过 Kafka Connect 进行流式传输,例如到 Elasticsearch、Cassandra 等。

【讨论】:

  • 有 Prometheus Kafka Sink 连接器吗?
  • @powder366 我不知道有一个。我会检查 hub.confluent.io,如果没有,那么 Google
猜你喜欢
  • 2018-08-25
  • 2018-02-28
  • 1970-01-01
  • 2018-07-03
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2018-03-24
  • 2018-04-19
相关资源
最近更新 更多