【发布时间】:2016-07-23 04:33:25
【问题描述】:
我有一个本地 hadoop 单节点并安装了配置单元,并且我有一些配置单元表存储在 hdfs 中。然后我用 MySQL Metastore 配置 Hive。现在我安装了 spark 并像这样(在 scala 中)对 hive 表进行了一些查询:
var hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)
result = hiveContext.sql("SELECT * FROM USERS");
result.show
你知道如何配置 spark 来显示查询的执行时间吗?因为默认情况下它没有显示..
【问题讨论】:
-
OMG,最后难道没有人不建议访问网络浏览器来获取执行时间吗?!不敢相信。这也必须能够以编程方式。
标签: scala apache-spark apache-spark-sql