【发布时间】:2017-03-17 22:40:29
【问题描述】:
所以,当从 pyspark 运行时,我会输入(不指定任何上下文):
df_openings_latest = sqlContext.sql('select * from experian_int_openings_latest_orc')
.. 它工作正常。
但是,当我从spark-submit 运行我的脚本时,就像
spark-submit script.py我把以下内容放入
from pyspark.sql import SQLContext
from pyspark import SparkConf, SparkContext
conf = SparkConf().setAppName('inc_dd_openings')
sc = SparkContext(conf=conf)
sqlContext = SQLContext(sc)
df_openings_latest = sqlContext.sql('select * from experian_int_openings_latest_orc')
但它给了我一个错误
pyspark.sql.utils.AnalysisException: u'Table not found: experian_int_openings_latest_orc;'
所以它看不到我的桌子。
我做错了什么?请帮忙
附: Spark 版本是 1.6,在 Amazon EMR 上运行
【问题讨论】:
标签: python hadoop apache-spark pyspark