【问题标题】:Insert to hive table not working插入蜂巢表不起作用
【发布时间】:2018-12-21 13:23:36
【问题描述】:

我有直接的蜂巢表

当我插入此表时,我收到以下错误。

正在执行kill命令,mapper和reducer个数为0。

更新

我已经使用 insert into table dept values('1','HR'); 即使这样我也得到了类似的错误如下

我已经检查了如下的工作日志

我在 hive 的配置中遗漏了什么吗?需要帮忙... 谢谢

【问题讨论】:

  • 将下面添加到我的类路径后,错误得到解决

标签: hadoop hive hdfs mapper reducers


【解决方案1】:

这不是写命令

INSERT INTO TABLE dept
VALUES ('1', 'HR'), ('2', 'IT');

在表名之前使用表,它会起作用

随着问题的更新而更新:

设置

YARN_HOME=$HADOOP_HOME 而不是 HADOOP_YARN_HOME=$HADOOP_HOME

在 env 设置文件中,这将是类似的。

导出 HADOOP_HOME=/opt/hadoop/hadoop 导出 HADOOP_COMMON_HOME=$HADOOP_HOME 导出 HADOOP_HDFS_HOME=$HADOOP_HOME 导出 HADOOP_MAPRED_HOME=$HADOOP_HOME 导出 HADOOP_YARN_HOME=$HADOOP_HOME 导出 HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native" 导出 HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

【讨论】:

  • 谢谢,如上所述,我在日志中发现此错误“错误:无法找到或加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster”
  • 在 env 设置文件中设置 YARN_HOME=$HADOOP_HOME 而不是 HADOOP_YARN_HOME=$HADOOP_HOME 这将是类似的。 export HADOOP_HOME=/opt/hadoop/hadoop export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_YARN_HOME=$HADOOP_HOME export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native" export HADOOP_COMMON_LIB_NATIVE_DIR= $HADOOP_HOME/lib/native
  • 尝试将这些添加到 yarn-env.sh 中,但仍然无效
猜你喜欢
  • 1970-01-01
  • 2019-02-07
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
相关资源
最近更新 更多