【问题标题】:spark query execution time火花查询执行时间
【发布时间】:2016-07-23 04:33:25
【问题描述】:

我有一个本地 hadoop 单节点并安装了配置单元,并且我有一些配置单元表存储在 hdfs 中。然后我用 MySQL Metastore 配置 Hive。现在我安装了 spark 并像这样(在 scala 中)对 hive 表进行了一些查询:

var hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)
result = hiveContext.sql("SELECT * FROM USERS");
result.show

你知道如何配置 spark 来显示查询的执行时间吗?因为默认情况下它没有显示..

【问题讨论】:

  • OMG,最后难道没有人不建议访问网络浏览器来获取执行时间吗?!不敢相信。这也必须能够以编程方式

标签: scala apache-spark apache-spark-sql


【解决方案1】:

使用spark.time()

var hiveContext = new org.apache.spark.sql.hive.HiveContext(sc) result = hiveContext.sql("SELECT * FROM USERS"); spark.time(result.show)

https://db-blog.web.cern.ch/blog/luca-canali/2017-03-measuring-apache-spark-workload-metrics-performance-troubleshooting

【讨论】:

    猜你喜欢
    • 2021-04-27
    • 2020-01-17
    • 2018-01-10
    • 2017-08-04
    • 1970-01-01
    • 2015-07-17
    • 1970-01-01
    • 2016-05-16
    • 1970-01-01
    相关资源
    最近更新 更多