【问题标题】:Check Spark packages version [duplicate]检查 Spark 包版本 [重复]
【发布时间】:2017-06-10 23:59:11
【问题描述】:

我正在尝试使用IntelliJ IdeaUbuntu 16.04 上设置我的第一个Scala 项目。我需要Spark 库,并且我认为我已正确安装在我的计算机中,但是我无法在项目依赖项中引用它。特别是,我在build.sbt 中添加了以下代码:

libraryDependencies ++= Seq(
  "org.apache.spark" % "spark-core" % "2.1.1",
  "org.apache.spark" % "spark-sql" % "2.1.1")

但是sbt 抱怨找不到正确的包(Unresolved Dependencies 错误,org.apache.spark#spark-core;2.1.1: not foundorg.apache.spark#spark-sql;2.1.1: not found):

我认为包的版本不对(我从网上复制了之前的代码,只是为了尝试)。

如何确定正确的软件包版本?

【问题讨论】:

  • @AreTour,你需要绑定scala版本和你的依赖,在SBT,你可以通过%%:"org.apache.spark" %% "spark-core" % "2.1.1"

标签: scala apache-spark intellij-idea sbt


【解决方案1】:

如果您使用%,您必须将确切的版本定义为

libraryDependencies ++= Seq(
  "org.apache.spark" % "spark-core_2.10" % "2.1.1",
  "org.apache.spark" % "spark-sql_2.10" % "2.1.1")

如果您不想定义版本并让sbt 采用正确的版本,那么您需要将%% 定义为

libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "2.1.1",
  "org.apache.spark" %% "spark-sql" % "2.1.1")

您可以通过执行检查安装的版本

spark-submit --version 

然后转到maven dependency

【讨论】:

  • 好的,这部分解决了我的问题,因为我想知道确切的版本。我在哪里可以找到这些信息?
  • 我已经更新了我的答案。我希望如果这就是你要找的东西
  • sbt 的版本不正确,所以我手动添加了它。经过一些测试,在您的资源的帮助下,我找到了我的版本。
  • 很高兴听到这个答案有帮助:)
猜你喜欢
  • 2012-08-26
  • 2016-11-29
  • 1970-01-01
  • 2014-11-15
  • 2016-02-03
  • 2018-09-22
  • 2021-11-18
  • 2014-11-20
  • 1970-01-01
相关资源
最近更新 更多