【发布时间】:2019-05-17 03:09:49
【问题描述】:
我正在执行一个 SQL 查询,并希望能够打印出执行该查询需要多长时间。我不断收到一个属性错误,说 Spark Session 没有属性时间。我一直在做以下事情:
>>> df2 = sqlContext.sql("select * from temptable where Location == 'Moorland Rd Library'")
>>> spark.time(df2.show())
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
AttributeError: 'SparkSession' object has no attribute 'time'
【问题讨论】:
-
我假设您的代码中某处是
from apachespark import SparkSession as spark -
@TheIncorrigible1 已经做到了,但仍然无法正常工作:from pyspark.sql import SparkSession as spark
标签: python sql apache-spark pyspark