【发布时间】:2019-02-28 00:29:31
【问题描述】:
我是 PYCHARM 的新手。我已经正确配置了所有内容,但仍然面临以下问题,当我尝试执行简单代码时Could not find valid SPARK_HOME while searching:
在项目解释器中,我更新了 PYTHON、PY4J.zip、PYSPARK.zip 和 SPARK 的路径,直到 bin(不包括 bin)
版本如下:
Python version - 3.6.4
Spark - 2.2.1
我需要配置什么吗?
【问题讨论】:
-
你需要在你的环境路径中设置SPARK_HOME
-
你是说系统环境?如果是,我应该包括 bin 吗?
-
不。直到火花父目录。比如 SPARK_HOME=path/spark-2.2.1
-
仍然面临这个问题
-
您能否更新您尝试设置的内容以及如何设置?
标签: apache-spark pyspark pycharm