【发布时间】:2016-05-08 10:28:30
【问题描述】:
我的 Maven POM 文件遇到问题,无法找到 spark 依赖项并返回错误: 无法读取 org.apache.spark:spark-streaming-kafka_2.10:jar:1.2.1 的工件描述符
我已经确认这不是任何公司防火墙的问题,因为其他所有依赖项都已正确加载,仅此一个。
我还能够在我的 Maven 设置中确认它正在尝试从以下存储库中提取。我尝试删除本地计算机上的 .m2 存储库以重新加载它,但仍然没有骰子。
http://repo.maven.apache.org/maven2/org/apache/spark/spark-streaming-kafka_2.10/1.2.1/
下面附上我的pom文件
<groupId>my.group.id</groupId>
<artifactId>sentiment</artifactId>
<version>1.0-SNAPSHOT</version>
<name>NPITWITTER</name>
<properties>
</properties>
<dependencies>
<dependency>
<groupId>com.sparkjava</groupId>
<artifactId>spark-core</artifactId>
<version>1.1.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming-kafka_2.10</artifactId>
<version>1.2.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.2.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.10</artifactId>
<version>1.2.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.10</artifactId>
<version>1.2.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.10</artifactId>
<version>1.2.1</version>
</dependency>
</dependencies>
【问题讨论】:
-
这个依赖正确存在:mvnrepository.com/artifact/org.apache.spark/… 所以问题出在其他地方。
标签: java maven intellij-idea apache-spark apache-kafka