【发布时间】:2015-07-05 18:20:52
【问题描述】:
我有两个问题
1) 我想将 Kafka 与 Google Cloud Dataflow Pipeline 程序一起使用。在我的管道程序中,我想从 kafka 读取数据有可能吗?
2) 我创建了启用 BigQuery 的实例,现在我想启用 Pubsub,我该怎么做?
【问题讨论】:
标签: apache-kafka google-cloud-dataflow google-cloud-pubsub
我有两个问题
1) 我想将 Kafka 与 Google Cloud Dataflow Pipeline 程序一起使用。在我的管道程序中,我想从 kafka 读取数据有可能吗?
2) 我创建了启用 BigQuery 的实例,现在我想启用 Pubsub,我该怎么做?
【问题讨论】:
标签: apache-kafka google-cloud-dataflow google-cloud-pubsub
(1) Raghu 提到的广告,在 2016 年年中通过 KafkaIO 包向 Apache Beam 添加了对写入/读取 Kafka 的支持。您可以查看package's documentation[1] 了解如何使用它。
(2) 我不太清楚你的意思。你能提供更多细节吗?
[1]https://beam.apache.org/releases/javadoc/current/org/apache/beam/sdk/io/kafka/KafkaIO.html
【讨论】:
Kafka 支持已于 2016 年中期添加到 Dataflow(和 Apache Beam)中。您可以读取和写入 Kafka 流式管道。在 Apache Beam 中查看 KafkaIO 的 JavaDoc。
【讨论】:
(2) 自 2015 年 4 月 27 日起,您可以按如下方式启用 Cloud Pub/Sub API:
APIs & auth -> APIs
Google Cloud APIs内点击More
Cloud Pub/Sub API
Enable API
【讨论】: