【问题标题】:error: not found: value RANDOM错误:未找到:值 RANDOM
【发布时间】:2018-04-23 01:59:50
【问题描述】:

我正在尝试使用 Scala 在 Spark 中运行模糊 C 均值算法

我正在关注以下链接:

https://github.com/acflorea/fuzzyCMeans

点击下方查看我收到的错误截图

错误截图:

我用过 sbt 然后 spark-shell

此外,为了解决这个问题,

我已经尝试在下面导入

import scala.util.Random
import java.util.Random
import util.Random

但我仍然遇到与以前相同的错误(屏幕截图)

在这方面的任何帮助将不胜感激。谢谢!

++++++++++++++++++++++++++++++++++++++++++++++++++ +++++++++

我已经导入了下面提到的包,

org.apache.spark.mllib.clustering.KMeans

但我仍然面临这个问题。请查看详细截图:

Screenshot of my work

请协助!谢谢!

PS:我使用的是 Spark 1.6.0 和 Scala 2.10.5

【问题讨论】:

    标签: scala apache-spark fuzzy-c-means


    【解决方案1】:

    在 Scala 中,

    import org.apache.spark.sql.functions.rand
    

    rand 是 spark sql 中可用的函数。 导入这个允许访问 rand 函数。

    【讨论】:

    • 欢迎来到 SO!如果您可以通过一些解释来支持您的答案,那就太好了。在您的情况下,使用 spark SQL 中的rand 的原因。
    【解决方案2】:

    这两个常量(RANDOM 和 K_MEANS_PARALLEL)定义在org.apache.spark.mllib.clustering.KMeans

    小心,自从 Spark1.6 和 Scala 2.10 之后,我就没有更新过这个包了 :)

    享受吧!

    【讨论】:

    • 为了从 Scala 中的对象导入所有内容,您应该使用:import org.apache.spark.mllib.clustering.KMeans._Enjoy!
    猜你喜欢
    • 2015-12-02
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2013-02-05
    • 2019-01-04
    • 2018-05-14
    • 1970-01-01
    • 2013-09-21
    相关资源
    最近更新 更多