【发布时间】:2015-12-23 13:49:46
【问题描述】:
我们将数据文件放在 HDFS 路径中,该路径由 spark 流应用程序监控。并触发流应用程序将数据发送到 kafka 主题。我们正在停止流式传输应用程序?在两者之间并再次启动,以便它应该从它停止的地方开始。但它正在再次处理整个输入数据文件。所以我猜检查点没有被正确使用。我们使用的是 spark 1.4.1 版本 我们如何使流应用程序从失败/停止的点开始? 提前致谢。
【问题讨论】:
标签: apache-spark spark-streaming checkpoint