【问题标题】:Persistence with NamedObjects in Spark Job ServerSpark Job Server 中 NamedObjects 的持久性
【发布时间】:2016-10-01 12:46:50
【问题描述】:

我正在使用最新的 SJS 版本(主)并且该应用程序扩展了 SparkHiveJob。在 runJob 实现中,我有以下内容

val eDF1 = hive.applySchema(rowRDD1, schema)

我想坚持 eDF1 并尝试以下方法

    val rdd_topersist = namedObjects.getOrElseCreate("cleanedDF1", {
        NamedDataFrame(eDF1, true, StorageLevel.MEMORY_ONLY)
       })

出现以下编译错误的地方

could not find implicit value for parameter persister: spark.jobserver.NamedObjectPersister[spark.jobserver.NamedDataFrame] 
not enough arguments for method getOrElseCreate: (implicit timeout:scala.concurrent.duration.FiniteDuration, implicit persister:spark.jobserver.NamedObjectPersister[spark.jobserver.NamedDataFrame])spark.jobserver.NamedDataFrame. Unspecified value parameter persister.

显然这是错误的,但我不知道出了什么问题。我对 Scala 还很陌生。

有人可以帮我理解 NamedObjectSupport 的这种语法吗?

def getOrElseCreate[O <: NamedObject](name: String, objGen: => O)
                                    (implicit timeout: FiniteDuration = defaultTimeout,
                                    persister: NamedObjectPersister[O]): O

【问题讨论】:

    标签: scala apache-spark spark-jobserver


    【解决方案1】:

    【讨论】:

    • @user1384205 答案对您有帮助吗?
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2016-02-24
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2017-03-04
    相关资源
    最近更新 更多