【发布时间】:2016-06-12 02:49:44
【问题描述】:
我有一个基于Kafka 的Spark Streaming 应用程序,每5 分钟运行一次。查看运行 5 天后的统计数据,有一些观察结果:
问题:
- 是否有很好的解释为什么
Processing Time大幅增加,即使事件数量或多或少相同(在最后一个低谷期间)? - 在每个处理周期结束时,我收到了将近 70 个
GC logs。这是正常的? - 是否有更好的策略来确保
processing time保持可接受的延迟?
【问题讨论】:
标签: apache-spark garbage-collection performance-testing spark-streaming