【问题标题】:Checkpointing is not working in spark streaming检查点在火花流中不起作用
【发布时间】:2015-12-23 13:49:46
【问题描述】:

我们将数据文件放在 HDFS 路径中,该路径由 spark 流应用程序监控。并触发流应用程序将数据发送到 kafka 主题。我们正在停止流式传输应用程序?在两者之间并再次启动,以便它应该从它停止的地方开始。但它正在再次处理整个输入数据文件。所以我猜检查点没有被正确使用。我们使用的是 spark 1.4.1 版本 我们如何使流应用程序从失败/停止的点开始? 提前致谢。

【问题讨论】:

    标签: apache-spark spark-streaming checkpoint


    【解决方案1】:

    在创建上下文时,使用 getOfCreate(checkpoint,..) 加载以前的检查点数据(如果有)。

    例如:JavaStreamingContext ssc = JavaStreamingContext.getOrCreate(checkpointDir,..)

    检查一个工作示例程序https://github.com/atulsm/Test_Projects/blob/master/src/spark/StreamingKafkaRecoverableDirectEvent.java

    【讨论】:

      猜你喜欢
      • 2018-08-26
      • 2019-03-02
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2016-09-23
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多