【发布时间】:2017-11-14 17:44:05
【问题描述】:
您好,我正在使用带有 spark 版本 2.0.2 的 Hive 2.3.0,当我尝试从 hive 控制台在 Spark 上运行 Hive 命令时, 作业卡住了,我必须手动杀死它。
以下是 Spark 工作日志中的错误消息。如果我做错了什么,请您指教。
INFO worker.Worker:执行程序 app-20171114093447-0000/0 以状态 KILLED exitStatus 143 结束
【问题讨论】:
标签: apache-spark hive