【问题标题】:Filter function in SparkSpark中的过滤器功能
【发布时间】:2014-11-01 19:54:19
【问题描述】:

我在 Spark 中使用 scala 编写了以下代码:

(inactiveIDs 是 RDD[(Int, Seq[String])],persons 是 Broadcast[RDD[(Int, Seq[Event])]],Event 是我创建的类)

val test = persons.value
  .map{tuple => (tuple._1, tuple._2
  .filter{event => inactiveIDs.filter(event2 => event2._1 == tuple._1).count() != 0})}

还有以下错误:

java.lang.NullPointerException

有什么想法吗?

【问题讨论】:

  • 请提供有关问题和人员处理方式的更多信息。
  • 粘贴完整的堆栈跟踪。

标签: scala map filter apache-spark rdd


【解决方案1】:

我找到了解决方案。我无法在另一个过滤器中过滤 rdd

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2013-09-30
    • 2016-08-27
    • 1970-01-01
    • 2019-08-25
    • 2021-02-27
    • 1970-01-01
    • 1970-01-01
    • 2016-02-23
    相关资源
    最近更新 更多