【发布时间】:2019-06-29 05:14:33
【问题描述】:
我在 zeppelin org.apache.spark.SparkException: Job aborted. 中遇到错误,描述 Caused by: java.lang.OutOfMemoryError: GC overhead limit exceeded.
我开始调查,发现问题不在于 zeppelin 中的低效任务,而在于我们如何运行 spark。 Zeppelin 提供了内置 spark 和 external spark 的使用方式(可以在 conf/zeppelin-env.sh 或 zeppelin gui 中设置 SPARK_HOME)。当我使用内置 spark 时,一切正常,但对于外部 spark,我得到 GC 开销限制超出同一任务的异常。
这两种运行 spark 的方式有什么区别以及如何修复 GC 开销限制超出异常?
【问题讨论】:
标签: apache-spark garbage-collection apache-zeppelin