【发布时间】:2020-12-29 07:33:12
【问题描述】:
当我在 maven 中添加依赖项时,IntelliJ IDEA 无法导入 Spark mllib。与 Spark 的其他部分没有问题。在项目结构中-> 库中存在 spark mllib。
import org.apache.spark.ml.feature.VectorAssembler; -> Cannot resolve symbol 'VectorAssembler'
pom.xml:
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.12</artifactId>
<version>3.0.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.12</artifactId>
<version>3.0.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-mllib_2.12</artifactId>
<version>3.0.0</version>
<scope>runtime</scope>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>3.3.0</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-core</artifactId>
<version>1.2.1</version>
</dependency>
</dependencies>
我尝试使用 maven 的存储库刷新 maven 和清除文件夹。没有任何帮助。
【问题讨论】:
-
尝试将 mllib 的版本更改为 3.0.1
-
我尝试了很多版本的mllib,结果都一样。
-
我认为
<scope>runtime</scope>不应该在那里。 -
这是真的,但为什么这个范围在 maven 中注册。 mvnrepository.com/artifact/org.apache.spark/spark-mllib_2.12/…
标签: java maven apache-spark intellij-idea