【问题标题】:How to pass extra arguments to spark.lapply in SparkR?如何在 SparkR 中将额外的参数传递给 spark.lapply?
【发布时间】:2019-09-18 13:18:36
【问题描述】:

我是 Spark 的新手。我正在尝试将一些 R 代码并行转换为 SparkR。是否有类似于使用 Spark 的 clusterExport 的功能?例如,假设我有以下代码,有没有办法将“y”传递给 spark.lapply 函数?

library(SparkR)

a = data.frame(x = c(1,2,3,4,5))

fn_a <- function() {
  sparkR.session()
  y = 2
  result = spark.lapply(a, fn_b) # <- pass y here
  sparkR.session.stop()
  print(result)
}

fn_b <- function(x) {
  return(x * y)
}

fn_a()
#Expected results
2  4  6  8 10

谢谢,

【问题讨论】:

    标签: r apache-spark sparkr


    【解决方案1】:

    正在研究同样的问题。得出 spark.lapply 只接受我认为的一个论点的结论?

    https://spark.apache.org/docs/2.0.2/api/R/spark.lapply.html

    "func 一个接受一个参数的函数。"

    【讨论】:

      猜你喜欢
      • 2018-10-07
      • 1970-01-01
      • 2020-03-15
      • 2016-06-03
      • 2012-09-01
      • 2020-07-19
      • 2016-02-16
      • 1970-01-01
      相关资源
      最近更新 更多