【发布时间】:2017-11-16 14:01:13
【问题描述】:
我在这里阅读了很多关于数据帧上的 unpersist() 的问题和答案。到目前为止,我还没有找到这个问题的答案:
在 Spark 中,一旦我完成了一个数据帧,调用 .unpersist() 来手动强制该数据帧从内存中取消持久化是一个好主意,而不是等待 GC(这是一个昂贵的任务)? 在我的情况下,我正在加载许多数据帧,以便我可以执行连接和其他转换。
因此,例如,如果我想加载并加入 3 个数据帧 A、B 和 C: 我加载数据帧 A 和 B,加入这两个以创建 X,然后 .unpersist() B 因为我不再需要它(但我需要 A),并且可以使用内存来加载 C(这很大)。然后我加载 C,并将 C 连接到 X,在 C 上使用 .unpersist(),这样我就有更多内存用于现在将在 X 和 A 上执行的操作。
我知道 GC 最终会对我来说不会持久化,但我也明白 GC 是一项昂贵的任务,应该尽可能避免。重新表述我的问题:这是手动管理内存以优化我的 Spark 作业的合适方法吗?
我的理解(如有错误请指正):
- 我知道 .unpersist() 是一种非常便宜的操作。
- 我知道 GC 最终会在我的数据帧上调用 .unpersist()。
- 我了解 spark 根据最近使用的策略监控缓存和丢弃。但在某些情况下,我不希望删除“上次使用”的 DF,因此我可以在我知道我将 不需要需要的 datafames 上调用.unpersist()将来,这样我就不会丢弃我将需要的 DF,并且以后必须重新加载它们。
如果不清楚,请再次重新表述我的问题:这是对 .unpersist() 的适当使用,还是应该让 Spark 和 GC 完成他们的工作?
提前致谢:)
【问题讨论】:
标签: scala apache-spark garbage-collection spark-dataframe