【发布时间】:2021-06-07 15:18:44
【问题描述】:
我对 Spark/Scala 还是很陌生。 Scala中的Spark RDD可以是var而不是val吗?我正在尝试编写一个 for 循环来在每次迭代中更新 RDD。如果我将它定义为 val 那么它将是不可变的,所以我只是想知道我是否使用 var RDD 来代替。
【问题讨论】:
-
也许可以通过代码示例向我们展示您正在尝试做的事情
标签: scala apache-spark rdd
我对 Spark/Scala 还是很陌生。 Scala中的Spark RDD可以是var而不是val吗?我正在尝试编写一个 for 循环来在每次迭代中更新 RDD。如果我将它定义为 val 那么它将是不可变的,所以我只是想知道我是否使用 var RDD 来代替。
【问题讨论】:
标签: scala apache-spark rdd
var 不会影响分配对象的可变性。唯一的区别是您可以替换分配给var 的对象,但不能对val 执行相同操作。您可以将RDD 分配给var,但它仍然不会是可变的(尽管可以被覆盖)。不过,还有更优雅的方式来处理这样的事情。
【讨论】: