【发布时间】:2016-08-08 12:34:44
【问题描述】:
我正在尝试在 Spark 上配置 Hive,但即使尝试了 5 天,我也没有得到任何解决方案..
接下来的步骤:
1.spark安装后,进入hive控制台,设置属性如下
set hive.execution.engine=spark;
set spark.master=spark://INBBRDSSVM294:7077;
set spark.executor.memory=2g;
set spark.serializer=org.apache.spark.serializer.KryoSerializer;
2.在 hive 库中添加 spark -asembly jar。
3.运行select count(*) from table_name时出现以下错误:
2016-08-08 15:17:30,207 ERROR [main]: spark.SparkTask (SparkTask.java:execute(131))
- Failed to execute spark task, with exception
'org.apache.hadoop.hive.ql.metadata.HiveException (Failed to create spark client.)'
Hive 版本:1.2.1
Spark 版本:尝试使用 1.6.1、1.3.1 和 2.0.0
如果有人可以提出建议,将不胜感激。
【问题讨论】:
标签: apache-spark-sql hiveql hadoop2