【发布时间】:2020-06-19 06:57:43
【问题描述】:
我正在使用 Hive 3.1.2 和 Spark 2.4.5(Ubuntu 18.04 上的 Hadoop 3) 运行查询时出现以下错误
0: jdbc:hive2://localhost:10000> 从retail_db.orders 中选择count(1); 错误:处理语句时出错:FAILED:执行错误,从 org.apache.hadoop.hive.ql.exec.spark.SparkTask 返回代码 30041。未能为 Spark 会话 4aa97085-8a23-4ad8-a8c6-b701d41d7110 创建 Spark 客户端(状态=42000,代码=30041)
日志: 2020-06-19 12:18:28,704 INFO [HiveServer2-Background-Pool: Thread-72] ql.Driver:并发模式已禁用,未创建锁管理器 2020-06-19 12:18:28,731 错误 [HiveServer2-Background-Pool: Thread-72] 操作。操作:运行配置单元查询时出错: org.apache.hive.service.cli.HiveSQLException:处理语句时出错:FAILED:执行错误,从 org.apache.hadoop.hive.ql.exec.spark.SparkTask 返回代码 30041。无法为 Spark 会话 4aa97085-8a23-4ad8-a8c6-b701d41d7110 创建 Spark 客户端 在 org.apache.hive.service.cli.operation.Operation.toSQLException(Operation.java:335) 在 org.apache.hive.service.cli.operation.SQLOperation.runQuery(SQLOperation.java:226) 在 org.apache.hive.service.cli.operation.SQLOperation.access$700(SQLOperation.java:87) 在 org.apache.hive.service.cli.operation.SQLOperation$BackgroundWork$1.run(SQLOperation.java:316) 在 java.security.AccessController.doPrivileged(本机方法) 在 javax.security.auth.Subject.doAs(Subject.java:422) 在 org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1729) 在 org.apache.hive.service.cli.operation.SQLOperation$BackgroundWork.run(SQLOperation.java:329) 在 java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) 在 java.util.concurrent.FutureTask.run(FutureTask.java:266) 在 java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) 在 java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) 在 java.lang.Thread.run(Thread.java:748) 原因:org.apache.hadoop.hive.ql.metadata.HiveException:无法为 Spark 会话 4aa97085-8a23-4ad8-a8c6-b701d41d7110 创建 Spark 客户端 在 org.apache.hadoop.hive.ql.exec.spark.session.SparkSessionImpl.getHiveException(SparkSessionImpl.java:221) 在 org.apache.hadoop.hive.ql.exec.spark.session.SparkSessionImpl.open(SparkSessionImpl.java:92) 在 org.apache.hadoop.hive.ql.exec.spark.session.SparkSessionManagerImpl.getSession(SparkSessionManagerImpl.java:115) 在 org.apache.hadoop.hive.ql.exec.spark.SparkUtilities.getSparkSession(SparkUtilities.java:136) 在 org.apache.hadoop.hive.ql.exec.spark.SparkTask.execute(SparkTask.java:115) 在 org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:205) 在 org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:97) 在 org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:2664) 在 org.apache.hadoop.hive.ql.Driver.execute(Driver.java:2335) 在 org.apache.hadoop.hive.ql.Driver.runInternal(Driver.java:2011) 在 org.apache.hadoop.hive.ql.Driver.run(Driver.java:1709) 在 org.apache.hadoop.hive.ql.Driver.run(Driver.java:1703) 在 org.apache.hadoop.hive.ql.reexec.ReExecDriver.run(ReExecDriver.java:157) 在 org.apache.hive.service.cli.operation.SQLOperation.runQuery(SQLOperation.java:224) ... 11 更多 引起:java.lang.NoClassDefFoundError: org/apache/spark/SparkConf 在 org.apache.hadoop.hive.ql.exec.spark.HiveSparkClientFactory.generateSparkConf(HiveSparkClientFactory.java:263) 在 org.apache.hadoop.hive.ql.exec.spark.RemoteHiveSparkClient.(RemoteHiveSparkClient.java:98) 在 org.apache.hadoop.hive.ql.exec.spark.HiveSparkClientFactory.createHiveSparkClient(HiveSparkClientFactory.java:76) 在 org.apache.hadoop.hive.ql.exec.spark.session.SparkSessionImpl.open(SparkSessionImpl.java:87)
【问题讨论】:
标签: apache-spark ubuntu hive