【发布时间】:2016-09-20 17:33:01
【问题描述】:
我们很难在 EMR 上运行 python spark 作业。
aws emr add-steps --cluster-id j-XXXXXXXX --steps \
Type=CUSTOM_JAR,Name="Spark Program",\
Jar="command-runner.jar",ActionOnFailure=CONTINUE,\
Args=["spark-submit",--deploy-mode,cluster,--master,yarn,s3://XXXXXXX/pi.py,2]
我们正在运行相同的pyspark compute pi script as the AWS page suggests
此脚本运行,但它会一直运行以计算 pi。在本地机器上需要几秒钟才能完成。我们也尝试过客户端模式。在客户端模式下,它使我们在本地传输文件。
16/09/20 15:20:32 INFO Client:
client token: N/A
diagnostics: N/A
ApplicationMaster host: N/A
ApplicationMaster RPC port: -1
queue: default
start time: 1474384831795
final status: UNDEFINED
tracking URL: http://XXXXXXX.ec2.internal:20888/proxy/application_1474381572045_0002/
user: hadoop
16/09/20 15:20:33 INFO Client: Application report for application_1474381572045_0002 (state: ACCEPTED)
Repeats this last command over and over...
有谁知道如何在 EMR 上运行 example python spark pi 脚本而不使其永远运行?
【问题讨论】:
标签: apache-spark pyspark emr