【发布时间】:2025-12-14 09:05:01
【问题描述】:
我在带有 hive 的 hadoop 集群上使用 pyspark。我知道可以从命令行(spark-submit --version、hive --version、hadoop version)获取 spark、hive 和 hadoop 版本,但我如何在 pyspark 中做同样的事情?
获取 spark 版本很容易:
print("Spark version = ".format(spark._sc.version))
我不知道如何获得 hive 和 hadoop 版本。有人知道吗? TIA
【问题讨论】:
标签: python apache-spark pyspark