【发布时间】:2019-03-02 20:04:40
【问题描述】:
我的 spark streaming 版本是 2.0,kafka 版本是 0.10.0.1,spark-streaming-kafka-0-10_2.11。 我使用直接方式获取kafka记录,我现在想限制我批量获取的最大消息数。所以我设置了 max.poll.records 值,但它不起作用。 spark中的consumer数就是kafka中的partition数?所以spark streaming中的最大记录数是max.poll.records*consumers?
【问题讨论】:
-
该属性是一个上限,而不是一个确切的数字。另外,不确定您对消费者的要求是什么,但您有多少执行者?
标签: apache-spark apache-kafka spark-streaming kafka-consumer-api