【发布时间】:2017-12-15 08:29:56
【问题描述】:
我在 pyspark 1.6.2 中执行了一个 python 脚本文件(是的,出于认证培训的原因,这是一个旧的)。
spark-submit --master yarn-cluster s01.py
运行时它只返回“application_somelongnumber 的应用程序报告”。我所期待的是它显示了我的脚本命令的输出。这样我就可以检查我是否开发正确。我应该怎样做才能更好地得到我想要的?
我的脚本内容:
#!/usr/bin/python
from pyspark.sql import Row
from pyspark.sql.functions import *
from pyspark import SparkContext
sc = SparkContext(appName = "solution01")
a = sc.textFile("/data/crime.csv")
b = a.take(1)
sc.stop()
print(b)
更新 :当我执行 pyspark s01.py 时,我看到了我的结果,但这不是预期的行为,因为我希望它在集群上使用参数执行。
【问题讨论】:
标签: python pyspark hortonworks-data-platform