【问题标题】:Running Spark Unit Tests in IntelliJ在 IntelliJ 中运行 Spark 单元测试
【发布时间】:2016-03-18 23:35:38
【问题描述】:

我有一个正在 IntelliJ 中开发的 spark 工作。它是通过 maven 构建的,测试通过了,我可以在本地运行该作业。但是,如果我尝试通过 IntelliJ 运行测试,我会得到

错误:scalac:错误的符号引用。中的一个签名 SparkContext.class 指的是包根中的术语akka,它不是 可用的。当前类路径中可能完全缺少它,或者 类路径上的版本可能与版本不兼容 编译 SparkContext.class 时使用。

【问题讨论】:

  • 你是在用你的 maven 项目做一个胖子吗?如果没有明确说明错误,则说明库冲突或库丢失。

标签: maven intellij-idea apache-spark


【解决方案1】:

我最终只是在 IntelliJ 中破坏并重建 IML,这解决了问题。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2013-10-17
    • 2011-05-08
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多