【发布时间】:2018-03-11 15:58:20
【问题描述】:
哪个 Scala 版本适用于 Spark 2.2.0? 我收到以下错误:
线程“main”中的异常 java.lang.NoSuchMethodError: scala.Predef$.refArrayOps([Ljava/lang/Object;)Lscala/collection/mutable/ArrayOps;
【问题讨论】:
-
scala test 会发生这种情况吗?
-
我已经修复了这个错误,现在想出了一个新错误。通过在 build.sbt 中添加依赖项来消除该错误
-
我仍然收到错误,我认为是版本冲突,但尝试了所有方法,但仍然没有成功。
-
类似问题here
-
name := "Scala-Spark" 版本 := "1.0" scalaVersion := "2.11.8" // mvnrepository.com/artifact/org.apache.spark/spark-core_2.10 libraryDependencies += "org.apache.spark" % "spark-core_2 .11" % "2.2.0" 复制并粘贴到 build.sbt 中。它肯定会起作用。
标签: scala apache-spark