【问题标题】:Resolving spark dependencies using sbt使用 sbt 解决 spark 依赖项
【发布时间】:2017-11-05 05:23:14
【问题描述】:

我试图构建一个非常基本的具有 spark 依赖项的 scala 脚本。 但我无法用它制作罐子。

产生的错误:

sbt.ResolveException:未解决的依赖项:org.apache.spark#spark-core_2.12;1.6.0-SNAPSHOT:未找到

我的 build.sbt :

    import Dependencies._

    lazy val root = (project in file(".")).
     settings(
               inThisBuild(List(
                                 organization := "com.example",
                                 scalaVersion := "2.12.1",
                                 version      := "0.1.0-SNAPSHOT"
                              )),
               name := "Hello",
               libraryDependencies +=  "org.apache.spark" %% "spark-core" % "1.6.0-SNAPSHOT",
               resolvers += Resolver.mavenLocal
                )

`

package example
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object Hello  {
     def main(args: Array[String]) {
           val logFile = "/Users/dhruvsha/Applications/spark/README.md"                 
           val conf = new SparkConf().setAppName("Simple Application")
           val sc = new SparkContext(conf)
           val logData = sc.textFile(logFile, 2).cache()
           val numAs = logData.filter(line => line.contains("a")).count()
           val numBs = logData.filter(line => line.contains("b")).count()
           println(s"Lines with a: $numAs, Lines with b: $numBs")
           sc.stop()
         }
}

我的源代码在:

/exampleapp/main/scala/example/Hello.scala

项目名称是 exampleapp。

scala 版本 2.12.2

火花版本 1.6.0

sbt 版本 0.13.13

如果您能提供学习 sbt 和 spark 依赖项的资源,任何形式的帮助都将不胜感激。

请看我是 scala、spark 和 sbt 的新手。

【问题讨论】:

    标签: java scala apache-spark dependencies sbt


    【解决方案1】:

    build.sbt 中的 library dependencies 行似乎是错误的

    正确的应该是

    libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.0"
    

    【讨论】:

    • 效果很好。您能否详细说明其中有什么问题,这里的 2.10 和 1.6.0 是什么以及为什么我需要添加这些。请看我对它真的很陌生,如果你能给我一些学习 sbt 的资源,那就太好了。
    • 如果您访问maven dependency repo,您可以在 sbt 选项卡下看到依赖格式。 “org.apache.spark”是 groupId,“spark-core_2.10”是 artifactId,“1.6.0”是修订版。您可以查看sbt-Reference
    猜你喜欢
    • 2016-06-19
    • 2023-03-22
    • 2016-07-18
    • 1970-01-01
    • 2017-11-11
    • 2017-03-15
    • 2014-12-18
    • 2015-11-04
    • 1970-01-01
    相关资源
    最近更新 更多