【发布时间】:2019-08-07 01:52:57
【问题描述】:
- 在我的情况下,结果是最终案例类
- 我无法使用 sc.parallelize(),因为我的列表非常大,会导致驱动程序崩溃。
【问题讨论】:
-
如果
List[List[Result]]大到足以使驱动程序崩溃,那么您的问题发生在转换为RDD的问题有意义之前。List[List[Result]]来自哪里?您应该询问如何从那里直接转换为RDD,跳过加载到一个 JVM 的内存中。
标签: scala list apache-spark rdd data-conversion