【问题标题】:Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/sql/catalyst/analysis/OverrideFunctionRegistry线程“主”java.lang.NoClassDefFoundError 中的异常:org/apache/spark/sql/catalyst/analysis/OverrideFunctionRegistry
【发布时间】:2016-04-24 14:03:04
【问题描述】:

我已经尝试在 spark 和 scala 中使用以下代码,附加代码和 pom.xml

package com.Spark.ConnectToHadoop

import org.apache.spark.SparkConf
import org.apache.spark.SparkConf
import org.apache.spark._
import org.apache.spark.sql._
import org.apache.spark.sql.hive.HiveContext
import org.apache.spark.sql.SQLContext
import org.apache.spark.rdd.RDD
//import groovy.sql.Sql.CreateStatementCommand

//import org.apache.spark.SparkConf


object CountWords  {

  def main(args:Array[String]){

    val objConf = new SparkConf().setAppName("Spark Connection").setMaster("spark://IP:7077")
    var sc = new SparkContext(objConf)
val objHiveContext = new HiveContext(sc)
objHiveContext.sql("USE test")


var test= objHiveContext.sql("show tables")
    var i  = 0

    var testing = test.collect()
      for(i<-0 until testing.length){

      println(testing(i))
    }
  }
}

我添加了 spark-core_2.10,spark-catalyst_2.10,spark-sql_2.10,spark-hive_2.10 依赖项我还需要添加更多依赖项吗???

编辑:

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.Sudhir.Maven1</groupId>
    <artifactId>SparkDemo</artifactId>
    <version>IntervalMeterData1</version>
    <packaging>jar</packaging>

    <name>SparkDemo</name>
    <url>http://maven.apache.org</url>

    <properties>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <spark.version>1.5.2</spark.version>
    </properties>

    <dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.10</artifactId>
            <version>1.5.2</version>
        </dependency> 
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.10</artifactId>
            <version>1.5.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-catalyst_2.10</artifactId>
            <version>1.5.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-hive_2.10</artifactId>
            <version>1.2.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-jdbc</artifactId>
            <version>1.2.1</version>
        </dependency>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>3.8.1</version>
            <scope>test</scope>
        </dependency>     
    </dependencies>
</project>

【问题讨论】:

  • 1.你如何运行你的火花 - 本地/远程? 2. 如果不是本地运行,有没有支持hive构建的spark版本?
  • remote,我没弄明白用 hive 支持构建是什么意思,。我之前在 1.4.1 时连接过
  • 您确定您正在运行您的代码并安装了支持 hive 的 spark 1.5 吗?在 issues.apache.org/jira/browse/SPARK-8883 中,Spark 1.5 的 OverrideFunctionRegistry 已替换为 HiveFunctionRegistry
  • 是的 spark 安装 1.5.2 也支持 hive(纱线集群模式).. hive 版本 1.2.1

标签: scala maven apache-spark apache-spark-sql hivecontext


【解决方案1】:

看来你忘记撞火花蜂巢了:

    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-hive_2.10</artifactId>
        <version>1.5.2</version>
    </dependency>

考虑引入 maven 变量,例如 spark.version。

   <properties>
        <spark.version>1.5.2</spark.version>
    </properties>

并以这种方式修改所有 spark 依赖项:

   <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-hive_2.10</artifactId>
        <version>${spark.version}</version>
    </dependency>

升级版本的 spark 不会那么痛苦。

仅在&lt;properties&gt; 中添加属性spark.version 是不够的,您必须在依赖项中使用${spark.version} 调用它。

【讨论】:

  • 非常感谢,该问题已解决并低于异常原因:java.lang.RuntimeException:根暂存目录:HDFS 上的 /tmp/hive 应该是可写的。当前权限是:rw-rw-rw-, evrn 虽然我已经给了 777 个权限
猜你喜欢
  • 2017-01-30
  • 2018-08-09
  • 2017-11-22
  • 1970-01-01
  • 2021-07-22
  • 2017-03-24
  • 2019-09-09
  • 2020-08-01
  • 1970-01-01
相关资源
最近更新 更多