【发布时间】:2018-06-19 04:49:46
【问题描述】:
我正在尝试将 Spark Dataframe 流式传输到 Kafka 消费者。我做不到,请您给我建议。
我能够从 Kafka 生产者那里挑选数据到 Spark,并且我已经执行了一些操作,在处理数据之后,我有兴趣将其流式传输回 Kafka(消费者)。
【问题讨论】:
-
“不能做”,你到底遇到了什么问题?如果可能,应将最低可行代码作为问题的一部分。
-
val ds = df1.writeStream.format("kafka").option("kafka.bootstrap.servers", "localhost:9092").option("topic", "kafka_topic_13")。 start() DF1 是 Spark 数据帧,我希望将此数据帧流式传输到 kafka。错误提示数据帧 (df1) 不是流数据帧/数据集。
-
您需要遍历数据帧的每个分区。对于每个分区,然后循环遍历所有元素并通过 Kafka Producer 发送它们。我没有代码,但我敢肯定你不是第一个问这个的人
-
是的,我在循环内写,因为我没有足够的空间在这里我无法显示整个代码:(,我正在尝试其他方式,正在处理它..
-
@GuruprasadSwaminathan 您可以随时编辑问题并提供所需的所有信息。