【发布时间】:2017-03-15 21:07:52
【问题描述】:
使用我的 build.sbt
version := "1.0"
scalaVersion := "2.11.8"
// https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.11
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1"
我尝试让 Spark 进入我的 sbt 0.13 项目,但 IntelliJ 2016.2.5 给出错误“未解决的依赖项”。我做错了什么?
没有代理,如果我说“2.0.0”而不是“2.0.1”,它就可以工作,但这不是很好......
另外:它似乎在 CLI 中有效,但在 IntelliJ 中无效。
【问题讨论】:
-
添加解析器。查看答案了解更多信息
-
你有代理吗?你能解决其他版本的火花吗?您是否能够解析任何其他依赖项的其他版本?
-
@JustinPihony:没有代理。是的,它适用于 2.0.0。
-
也许清除您的 intellij 目录并重试?否则你可能会更好地打开 intellij 自己的问题
-
@JustinPihony:“清除你的 intellij 目录”是什么意思?
标签: scala apache-spark intellij-idea dependencies sbt