【发布时间】:2015-11-15 15:46:11
【问题描述】:
我正在尝试在 spark 中使用平方距离函数,但似乎没有任何效果。我尝试了 Vector.sqdist 但收到此错误“sqdist is not member of scala.collections.......”(但文档显示它是我导入的 [org.apache.spark.mllib.linalg.Vector] 的成员(http://spark.apache.org/docs/latest/api/scala/index.html#org.apache.spark.mllib.linalg.Vector)) .
/* SimpleApp.scala */
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
import org.apache.spark.mllib.linalg.Vectors
object SimpleApp {
def main(args: Array[String]) {
val v1: org.apache.spark.mllib.linalg.Vector = Vectors.dense(5)
val v2: org.apache.spark.mllib.linalg.Vector = Vectors.dense(5)
Vectors.sqdist(v1, v2)
}
}
我的 sbt 构建
name := "Simple Project"
version := "1.0"
scalaVersion := "2.10.4"
libraryDependencies ++= Seq(
"org.apache.spark" % "spark-core_2.10" % "1.1.0",
"org.apache.spark" % "spark-mllib_2.10" % "1.1.0"
)
Spark 版本:1.5.0
你有没有替代如何使用这个功能?
谢谢
【问题讨论】:
标签: scala hadoop apache-spark