【问题标题】:Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/sql/SQLContext线程“主”java.lang.NoClassDefFoundError 中的异常:org/apache/spark/sql/SQLContext
【发布时间】:2017-11-22 12:40:28
【问题描述】:

我使用的是 IntelliJ 2016.3 版本。

import sbt.Keys._
import sbt._

object ApplicationBuild extends Build {

  object Versions {
    val spark = "1.6.3"
  }

  val projectName = "example-spark"

  val common = Seq(
    version := "1.0",
    scalaVersion := "2.11.7"
  )

  val customLibraryDependencies = Seq(
    "org.apache.spark" %% "spark-core" % Versions.spark % "provided",
    "org.apache.spark" %% "spark-sql" % Versions.spark % "provided",
    "org.apache.spark" %% "spark-hive" % Versions.spark % "provided",
    "org.apache.spark" %% "spark-streaming" % Versions.spark % "provided",

    "org.apache.spark" %% "spark-streaming-kafka" % Versions.spark
      exclude("log4j", "log4j")
      exclude("org.spark-project.spark", "unused"),

    "com.typesafe.scala-logging" %% "scala-logging" % "3.1.0",

    "org.slf4j" % "slf4j-api" % "1.7.10",

    "org.slf4j" % "slf4j-log4j12" % "1.7.10"
      exclude("log4j", "log4j"),

    "log4j" % "log4j" % "1.2.17" % "provided",

    "org.scalatest" %% "scalatest" % "2.2.4" % "test"
  )

我一直在运行时异常以下。即使我正确地提到了所有依赖项,如上所示。

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/sql/SQLContext
    at example.SparkSqlExample.main(SparkSqlExample.scala)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at com.intellij.rt.execution.application.AppMain.main(AppMain.java:147)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.sql.SQLContext
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:335)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    ... 6 more

在此网络上进行了更多调查。发现这主要是由于buld.sbt 中的条目不合适或版本不匹配。但在我的情况下,一切看起来都很好,如上所示。 请建议我在这里做错了什么?

【问题讨论】:

  • 你不应该使用spark-sql_2.11之类的吗?
  • @philantrovert!由于我们在提到依赖项时使用了 %%,所以 sbt 足够智能,可以在 scala 版本后面加上下划线。正如我们上面提到的 scalaVersion := "2.11.7" ., sbt 将其作为 2.11 并将其作为 spark-sql_2.11 附加到依赖项中。

标签: apache-spark apache-spark-sql noclassdeffounderror apache-spark-1.6


【解决方案1】:

我猜这是因为您将依赖项标记为“已提供”,但显然您(或 IDEA)没有提供它们。

尝试删除“提供”选项或(我的首选方式):将带有main方法的类移动到src/test/scala

【讨论】:

    猜你喜欢
    • 2017-01-30
    • 2018-08-09
    • 1970-01-01
    • 2021-07-22
    • 2017-03-24
    • 2016-04-24
    • 2019-09-09
    • 2020-08-01
    • 1970-01-01
    相关资源
    最近更新 更多