【发布时间】:2020-09-19 01:38:54
【问题描述】:
我正在从 Kafka 源读取流数据,但是来自 kafka 的所有数据都是在单个微批处理中读取的。
spark.readStream.format("kafka").option("kafka.bootstrap.servers",bootstrap_servers).option("subscribe", topics).option("startingOffsets", "earliest").load()
哪个参数或选项用于在一个微批次的 spark 结构化流中设置最大批次大小?
【问题讨论】:
标签: apache-spark pyspark apache-kafka spark-structured-streaming