【发布时间】:2022-01-05 00:52:53
【问题描述】:
例如,我的 spark 结构化流式应用程序以 Kafka 作为消息源,下面是不同配置的详细信息。
Kafka 设置:
消息来源:kafka
分区:40
输入参数:
maxOffsetsPerTrigger : 1000
集群设置:
工人数 = 5
核心数/worker = 8
问题:
通过上述设置,它是否读取
(1000 * 5 * 8) = 40000 条消息
或
(1000 * 5) = 5000 条消息
或
读取 1000 条消息并将其分发到 5 个工作节点?
【问题讨论】:
标签: apache-spark apache-kafka databricks