【问题标题】:Unresolved dependencies errors when trying to build self-contained application with Scala + Spark尝试使用 Scala + Spark 构建自包含应用程序时出现未解决的依赖关系错误
【发布时间】:2015-09-13 12:30:43
【问题描述】:

我正在尝试关注Self-Contained Applications Tutorial 并尝试使用sbtscala 进行构建,但是在从C:\Users\00926133\test 调用sbt package 时遇到以下错误:

[info] Set current project to Simple Project (in build file:/C:/Users/00926133/test/)
[info] Updating {file:/C:/Users/00926133/test/}test...
[info] Resolving org.scala-lang#scala-library;2.10.4 ...
[info] Resolving org.scala-lang#scala-library;2.10.4 ...
[error] Unable to find credentials for [ @ XXXX].
[info] Resolving org.apache.spark#spark-core_2.10;1.4.0 ...
[info] Resolving org.apache.spark#spark-core_2.10;1.4.0 ...
[info] Resolving org.scala-lang#scala-compiler;2.10.4 ...
[info] Resolving org.scala-lang#scala-compiler;2.10.4 ...
[warn]  ::::::::::::::::::::::::::::::::::::::::::::::
[warn]  ::          UNRESOLVED DEPENDENCIES         ::
[warn]  ::::::::::::::::::::::::::::::::::::::::::::::
[warn]  :: org.scala-lang#scala-library;2.10.4: java.util.NoSuchElementException
[warn]  :: org.apache.spark#spark-core_2.10;1.4.0: java.util.NoSuchElementException
[warn]  :: org.scala-lang#scala-compiler;2.10.4: java.util.NoSuchElementException
[warn]  ::::::::::::::::::::::::::::::::::::::::::::::
[warn] 
[warn]  Note: Unresolved dependencies path:
[warn]      org.scala-lang:scala-library:2.10.4 ((sbt.Classpaths) Defaults.scala#L1203)
[warn]        +- simple-project:simple-project_2.10:1.0
[warn]      org.apache.spark:spark-core_2.10:1.4.0 (C:\Users\00926133\test\simple.sbt#L7-8)
[warn]        +- simple-project:simple-project_2.10:1.0
[warn]      org.scala-lang:scala-compiler:2.10.4
[warn]        +- simple-project:simple-project_2.10:1.0
sbt.ResolveException: unresolved dependency: org.scala-lang#scala-library;2.10.4: java.util.NoSuchElementException
unresolved dependency: org.apache.spark#spark-core_2.10;1.4.0: java.util.NoSuchElementException
unresolved dependency: org.scala-lang#scala-compiler;2.10.4: java.util.NoSuchElementException
    at sbt.IvyActions$.sbt$IvyActions$$resolve(IvyActions.scala:291)
    at sbt.IvyActions$$anonfun$updateEither$1.apply(IvyActions.scala:188)
    at sbt.IvyActions$$anonfun$updateEither$1.apply(IvyActions.scala:165)
    at sbt.IvySbt$Module$$anonfun$withModule$1.apply(Ivy.scala:155)
    at sbt.IvySbt$Module$$anonfun$withModule$1.apply(Ivy.scala:155)
    at sbt.IvySbt$$anonfun$withIvy$1.apply(Ivy.scala:132)
    at sbt.IvySbt.sbt$IvySbt$$action$1(Ivy.scala:57)
    at sbt.IvySbt$$anon$4.call(Ivy.scala:65)
    at xsbt.boot.Locks$GlobalLock.withChannel$1(Locks.scala:93)
    at xsbt.boot.Locks$GlobalLock.xsbt$boot$Locks$GlobalLock$$withChannelRetries$1(Locks.scala:78)
    at xsbt.boot.Locks$GlobalLock$$anonfun$withFileLock$1.apply(Locks.scala:97)
    at xsbt.boot.Using$.withResource(Using.scala:10)
    at xsbt.boot.Using$.apply(Using.scala:9)
    at xsbt.boot.Locks$GlobalLock.ignoringDeadlockAvoided(Locks.scala:58)
    at xsbt.boot.Locks$GlobalLock.withLock(Locks.scala:48)
    at xsbt.boot.Locks$.apply0(Locks.scala:31)
    at xsbt.boot.Locks$.apply(Locks.scala:28)
    at sbt.IvySbt.withDefaultLogger(Ivy.scala:65)
    at sbt.IvySbt.withIvy(Ivy.scala:127)
    at sbt.IvySbt.withIvy(Ivy.scala:124)
    at sbt.IvySbt$Module.withModule(Ivy.scala:155)
    at sbt.IvyActions$.updateEither(IvyActions.scala:165)
    at sbt.Classpaths$$anonfun$sbt$Classpaths$$work$1$1.apply(Defaults.scala:1369)
    at sbt.Classpaths$$anonfun$sbt$Classpaths$$work$1$1.apply(Defaults.scala:1365)
    at sbt.Classpaths$$anonfun$doWork$1$1$$anonfun$87.apply(Defaults.scala:1399)
    at sbt.Classpaths$$anonfun$doWork$1$1$$anonfun$87.apply(Defaults.scala:1397)
    at sbt.Tracked$$anonfun$lastOutput$1.apply(Tracked.scala:37)
    at sbt.Classpaths$$anonfun$doWork$1$1.apply(Defaults.scala:1402)
    at sbt.Classpaths$$anonfun$doWork$1$1.apply(Defaults.scala:1396)
    at sbt.Tracked$$anonfun$inputChanged$1.apply(Tracked.scala:60)
    at sbt.Classpaths$.cachedUpdate(Defaults.scala:1419)
    at sbt.Classpaths$$anonfun$updateTask$1.apply(Defaults.scala:1348)
    at sbt.Classpaths$$anonfun$updateTask$1.apply(Defaults.scala:1310)
    at scala.Function1$$anonfun$compose$1.apply(Function1.scala:47)
    at sbt.$tilde$greater$$anonfun$$u2219$1.apply(TypeFunctions.scala:40)
    at sbt.std.Transform$$anon$4.work(System.scala:63)
    at sbt.Execute$$anonfun$submit$1$$anonfun$apply$1.apply(Execute.scala:226)
    at sbt.Execute$$anonfun$submit$1$$anonfun$apply$1.apply(Execute.scala:226)
    at sbt.ErrorHandling$.wideConvert(ErrorHandling.scala:17)
    at sbt.Execute.work(Execute.scala:235)
    at sbt.Execute$$anonfun$submit$1.apply(Execute.scala:226)
    at sbt.Execute$$anonfun$submit$1.apply(Execute.scala:226)
    at sbt.ConcurrentRestrictions$$anon$4$$anonfun$1.apply(ConcurrentRestrictions.scala:159)
    at sbt.CompletionService$$anon$2.call(CompletionService.scala:28)
    at java.util.concurrent.FutureTask.run(FutureTask.java:262)
    at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471)
    at java.util.concurrent.FutureTask.run(FutureTask.java:262)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
    at java.lang.Thread.run(Thread.java:745)
[error] (*:update) sbt.ResolveException: unresolved dependency: org.scala-lang#scala-library;2.10.4: java.util.NoSuchElementException
[error] unresolved dependency: org.apache.spark#spark-core_2.10;1.4.0: java.util.NoSuchElementException
[error] unresolved dependency: org.scala-lang#scala-compiler;2.10.4: java.util.NoSuchElementException
[error] Total time: 1 s, completed Jun 26, 2015 9:13:40 AM

我已经成功运行了spark-shellscala,以及pythonR 的spark 示例。我还尝试删除 .ivy 文件夹。


我的simple.sbt 文件:
name := "Simple Project"

version := "1.0"

scalaVersion := "2.10.4"

libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.4.0"

其他信息

  • scala -version == 2.10.4
  • sbt sbt-version == 0.13.8
  • 我的simple.sbt 文件位于C:\Users\00926133\test
  • SimpleApp.scala 位于C:\Users\00926133\test\src\main\scala
  • Spark 驻留在C:\Users\00926133\spark-1.4.0-bin-hadoop2.6

我浏览了几篇 Stack Overflow 帖子,但那里显示的解决方案似乎都没有给我任何吸引力。


更新
我能够确认这是与代理相关的问题。但是,我仍然无法在我的代理后面构建。这是在 Windows 上,我有以下内容:

环境变量

SBT_OPTS = -Dhttp.proxyHost=<myhost> -Dhttp.proxyPort=<myport> -Dhttp.proxyUser=<myuser> -Dhttp.proxyPassword=<mypassword> -Dhttps.proxyHost=<myhost> -Dhttps.proxyPort=<myport> -Dhttps.proxyUser=<myuser> -Dhttps.proxyPassword=<mypassword> 
JAVA_OPTS = -Dhttp.proxyHost=<myhost> -Dhttp.proxyPort=<myport> -Dhttp.proxyUser=<myuser> -Dhttp.proxyPassword=<mypassword> -Dhttps.proxyHost=<myhost> -Dhttps.proxyPort=<myport> -Dhttps.proxyUser=<myuser> -Dhttps.proxyPassword=<mypassword>

我还将以下几行添加到位于..\sbt\conf 下的sbtconfig.txt

-Dhttp.proxyHost=<myhost>
-Dhttp.proxyPort=<myport>
-Dhttp.proxyUser=<myuser>
-Dhttp.proxyPassword=<mypassword>
-Dhttps.proxyHost=<myhost>
-Dhttps.proxyPort=<myport>
-Dhttps.proxyUser=<myuser>
-Dhttps.proxyPassword=<mypassword>

任何能够 (a) 以通俗易懂的方式解释 sbt package 正在做什么,(b) 如何解释 simple.sbt 文件,和/或 (c) 弄清楚如何解决 @ 987654347@ -- XXXX 是我工作的代理服务器。

【问题讨论】:

    标签: scala apache-spark sbt


    【解决方案1】:

    我在SBT source code 中找到了您的第一个错误(按时间顺序)的源代码,并附有评论“我们保证只有在 Ivy 的身份验证失败时才会到达这里”。由于剩余的错误是无法找到依赖项,因此看起来是代理导致了问题。

    你看到How to use sbt from behind proxy?的问题了吗?你试过这些步骤了吗?

    SBT 使用 Ivy 在本地缓存依赖项,因此一旦您获取了特定依赖项的特定版本,就不必再去 Internet 获取它。在 Windows 中,您可以在 C:\Users\&lt;User Name&gt;\.ivy2 处查看 Ivy 缓存的内容

    看起来 SBT 无法通过您公司的代理导致它无法获取第三方依赖项,从而导致构建失败。如果您还没有尝试过,请尝试在 SBT 命令行或环境变量中设置代理配置。由于您使用的是 Windows,只需将 -Dhttp.proxyHost=yourserver -Dhttp.proxyPort=port ... 添加到 SBT 命令行即可。确保添加所有必需的参数,具体取决于代理的要求。 (是否需要用户名/密码?)

    SBT 是 Scala 的“简单构建工具”。 SBT 文件是用 Scala 编写的。 SBT 中的类定义了运算符,这些运算符会导致您根据构建文件请求的构建操作。当您运行 sbt package 时,您要求构建工具构建和打包当前项目。

    Spark quick startsimple.sbt 文件进行了高级解释。通常,SBT 构建文件会给出项目名称和版本,定义所需的 Scala 版本,列出第三方依赖项,一般来说定义整个构建和打包过程所需的一切。

    【讨论】:

    • +1 谢谢。这绝对是代理问题。尽管尝试设置JAVA_OPTSSBT_OPTS 并修改sbtconfig.txt 文件做了很多努力,但我无法在代理后面构建东西。但是,我能够构建 关闭代理,然后成功运行该示例。真希望我能找出选项的秘密组合,用 sbt 在代理后面构建东西。代理设置在其他应用程序中一直很麻烦,但我已经能够解决它们。
    • 您是否收到与之前相同的错误“无法找到 [@XXXX] 的凭据”。还是别的什么?
    猜你喜欢
    • 2017-01-04
    • 1970-01-01
    • 2018-02-02
    • 2014-10-24
    • 2015-11-29
    • 1970-01-01
    • 1970-01-01
    • 2020-01-20
    • 2018-09-27
    相关资源
    最近更新 更多