【问题标题】:Spark Kafka Streaming IssueSpark Kafka 流媒体问题
【发布时间】:2014-11-12 07:55:34
【问题描述】:

我正在使用 maven

我添加了以下依赖项

   <dependency> <!-- Spark dependency -->
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-streaming_2.10</artifactId>
      <version>1.1.0</version>
    </dependency>   <dependency> <!-- Spark dependency -->
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-streaming-kafka_2.10</artifactId>
      <version>1.1.0</version>
    </dependency>

我在代码中也添加了jar

SparkConf sparkConf = new SparkConf().setAppName("KafkaSparkTest");
JavaSparkContext sc = new JavaSparkContext(sparkConf);
sc.addJar("/home/test/.m2/repository/org/apache/spark/spark-streaming-kafka_2.10/1.0.2/spark-streaming-kafka_2.10-1.0.2.jar");
JavaStreamingContext jssc = new JavaStreamingContext(sc, new Duration(5000)); 

它可以很好地完成,没有任何错误,当我运行 spark-submit 时出现以下错误,非常感谢任何帮助。感谢您的宝贵时间。

bin/spark-submit --class "KafkaSparkStreaming" --master local[4] try/simple-project/target/simple-project-1.0.jar

线程“主”java.lang.NoClassDefFoundError 中的异常:org/apache/spark/streaming/kafka/KafkaUtils 在 KafkaSparkStreaming.sparkStreamingTest(KafkaSparkStreaming.java:40) 在 KafkaSparkStreaming.main(KafkaSparkStreaming.java:23) 在 sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 在 sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 在 sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 在 java.lang.reflect.Method.invoke(Method.java:606) 在 org.apache.spark.deploy.SparkSubmit$.launch(SparkSubmit.scala:303) 在 org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:55) 在 org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) 引起:java.lang.ClassNotFoundException:org.apache.spark.streaming.kafka.KafkaUtils 在 java.net.URLClassLoader$1.run(URLClassLoader.java:366)

【问题讨论】:

  • 您的 addJar 方法不是必需的。但是,您应该在包含依赖项的 .jar 中添加 maven 程序集插件和包(不要找到 spark-kafka 依赖项)。
  • 我在 pom 的依赖列表中添加了 spark-streaming-kafka_2.10
  • 感谢添加 maven 程序集插件帮助..

标签: java maven apache-spark apache-kafka


【解决方案1】:

为了将来的参考,如果你得到一个 ClassNotFoundException,如果你搜索“org.apache.spark...”,你将被带到 maven 页面,它会告诉你你的 pom 文件中缺少的依赖项。它还会为您提供放入 pom 文件的代码。

【讨论】:

    【解决方案2】:

    我遇到了同样的问题,我通过构建带有依赖项的jar来解决它。

    1. 删除代码中的“sc.addJar()”。

    2. 将以下代码添加到 pom.xml

      <build>
          <sourceDirectory>src/main/java</sourceDirectory>
          <testSourceDirectory>src/test/java</testSourceDirectory>
          <plugins>
            <!--
                         Bind the maven-assembly-plugin to the package phase
              this will create a jar file without the storm dependencies
              suitable for deployment to a cluster.
             -->
            <plugin>
              <artifactId>maven-assembly-plugin</artifactId>
              <configuration>
                <descriptorRefs>
                  <descriptorRef>jar-with-dependencies</descriptorRef>
                </descriptorRefs>
                <archive>
                  <manifest>
                    <mainClass></mainClass>
                  </manifest>
                </archive>
              </configuration>
              <executions>
                <execution>
                  <id>make-assembly</id>
                  <phase>package</phase>
                  <goals>
                    <goal>single</goal>
                  </goals>
                </execution>
              </executions>
            </plugin>
          </plugins>
      </build>    
      
    3. mvn 包

    4. 提交“example-jar-with-dependencies.jar”

    【讨论】:

    • 我将以上几行添加到 pom.xml 但问题仍然存在。
    猜你喜欢
    • 1970-01-01
    • 2014-11-25
    • 2020-11-06
    • 2018-10-14
    • 2017-12-13
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多