【问题标题】:Dependency error while setting up spark with java in eclipse在eclipse中使用java设置spark时出现依赖错误
【发布时间】:2017-03-14 20:01:32
【问题描述】:

我是 spark 和 Java 的新手。我试图使用 Maven 依赖项在 Eclipse 中设置 spark 环境。我正在使用 Java 1.8 和 Scala 2.11.7。我在 Eclipse 中创建了一个 Scala 项目并创建了一个 Maven 依赖项。

<dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.11</artifactId>
        <version>2.1.0</version>
</dependency>

现在我收到一个错误,因为 “无法从 https://repo.maven.apache.org/maven2 传输 org.spark-project.spark:unused:jar:1.0.0 已缓存在本地存储库中,直到Central 的更新间隔已过或强制更新。”

【问题讨论】:

  • 工件 spark-core_2.11 不存在,使用 spark-core_2.10 作为 artifactid

标签: eclipse scala maven apache-spark


【解决方案1】:

我也是新人。这些是我使用 eclipse、scala 2.11、maven 和 spark 的步骤:1.- 创建一个 maven 项目 2.- 将此 POM 用作基本方向https://github.com/entradajuan/Spark0/blob/master/Spark0/pom.xml 3.- 将项目转换为 Scala:右键按钮->配置->转换为 Scala 4.- 然后在 src/main/java 5 中创建一个包。- 在新包中创建一个带有 def main 的 scala 对象

到目前为止,我总是以同样的方式开始。我不在我的项目中使用 Java。 在运行 maven build “clean install” 来获取 jar 时,它也可以正常工作。

【讨论】:

  • Juani:谢谢,帮了大忙。
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 2018-05-30
  • 2021-01-25
  • 2014-12-07
  • 2015-12-08
  • 1970-01-01
  • 2017-07-10
  • 2018-11-16
相关资源
最近更新 更多