【发布时间】:2019-07-17 16:28:48
【问题描述】:
我正在使用 spark 消费者(来自 spark-streaming-kafka_2.10 版本 1.6.0)。
我的 spark 启动器监听来自 5 个分区的 kafka 队列的消息。假设我停止我的 spark 应用程序,那么它将根据我的配置读取最小或最大的偏移值。但是我的 Spark 应用程序应该在我停止后阅读消息。例如,我停止进程 3.00PM 并在 3.30PM 启动 spark 启动器。然后我想在 3.00pm 到 3.30PM 之间阅读所有消息。
【问题讨论】:
-
您使用什么版本的火花流式传输(标准/结构化)?如果标准:您使用基于接收器的方法还是直接流式传输?
-
org.apache.spark ,spark-streaming-kafka_2.10 1.6.0
标签: java apache-spark apache-kafka spark-streaming