【发布时间】:2018-10-29 08:03:45
【问题描述】:
我在aws emr上玩apache-spark,并尝试使用this将集群设置为使用python3,
我将该命令用作引导脚本中的最后一个命令
sudo sed -i -e '$a\export PYSPARK_PYTHON=/usr/bin/python3' /etc/spark/conf/spark-env.sh
当我使用它时,集群在引导过程中崩溃并出现以下错误。
sed: 无法读取 /etc/spark/conf/spark-env.sh: 没有这样的文件或 目录
我应该如何设置它以正确使用python3?
这不是重复的of,我的问题是集群在引导时没有找到 spark-env.sh 文件,而另一个问题解决了系统找不到 python3 的问题
【问题讨论】:
-
你是怎么解决这个问题的?
-
@MehdiB。将发布有关它的答案。
标签: amazon-web-services apache-spark cluster-computing amazon-emr