【发布时间】:2018-03-31 05:29:37
【问题描述】:
我正在 Spyder Python IDE 中使用 Pyspark,我正在尝试执行下一个代码片段:
prueba_2 = sqlContext.createDataFrame(...)
但是当我运行它时,我得到了下一个错误:
AttributeError: 'PipelinedRDD' object has no attribute 'sparkSession'
我还有下面的代码片段:
conf=SparkConf()
conf.set("spark.executor.memory", "1g")
conf.set("spark.cores.max", "2")
conf.setAppName("name")
sc = SparkContext('local', conf=conf)
spark = SparkSession\
.builder\
.appName("name")\
.getOrCreate()
发生了什么?我该如何解决?
【问题讨论】:
标签: python apache-spark dataframe pyspark spyder