【发布时间】:2015-06-22 15:56:11
【问题描述】:
我正在用 python 为我的 Spark 代码编写一些单元测试。我的代码取决于spark-csv。在生产中,我使用spark-submit --packages com.databricks:spark-csv_2.10:1.0.3 提交我的python 脚本。
我正在使用 pytest 在 local 模式下使用 Spark 运行我的测试:
conf = SparkConf().setAppName('myapp').setMaster('local[1]')
sc = SparkContext(conf=conf)
我的问题是,既然pytest 没有使用spark-submit 来运行我的代码,我怎样才能将我的spark-csv 依赖项提供给python 进程?
【问题讨论】:
标签: python apache-spark pytest pyspark