【发布时间】:2014-11-01 19:54:19
【问题描述】:
我在 Spark 中使用 scala 编写了以下代码:
(inactiveIDs 是 RDD[(Int, Seq[String])],persons 是 Broadcast[RDD[(Int, Seq[Event])]],Event 是我创建的类)
val test = persons.value
.map{tuple => (tuple._1, tuple._2
.filter{event => inactiveIDs.filter(event2 => event2._1 == tuple._1).count() != 0})}
还有以下错误:
java.lang.NullPointerException
有什么想法吗?
【问题讨论】:
-
请提供有关问题和人员处理方式的更多信息。
-
粘贴完整的堆栈跟踪。
标签: scala map filter apache-spark rdd