【发布时间】:2018-02-22 04:12:19
【问题描述】:
我正在使用 spark1.6。我正在使用 spark 上下文创建 hivecontext。当我将数据保存到配置单元时,它会出错。我正在使用cloudera vm。我的蜂巢位于 cloudera vm 内,并在我的系统上启动。我可以使用 IP 访问虚拟机。我已经在 vm 上启动了 thrift 服务器和 hiveserver2。我有 hive.metastore.uris 的用户 thrift 服务器 uri
val hiveContext = new HiveContext(sc)
hiveContext.setConf("hive.metastore.uris", "thrift://IP:9083")
............
............
df.write.mode(SaveMode.Append).insertInto("test")
我收到以下错误:
FAILED: SemanticException java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
【问题讨论】:
-
和错误?
-
失败:SemanticException java.lang.RuntimeException:无法实例化 org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
-
我是直接保存df。所以我应该在 spark 中定义 hive 的属性
-
您可能需要定义
scratch dirlocation -
我应该在哪里定义这个位置?
标签: apache-spark hive hivecontext