【发布时间】:2016-11-19 14:19:29
【问题描述】:
我使用的是 Windows 10。我试图让 Spark 在 Jupyter Notebook 中与 Python 3.5 一起启动并运行。我安装了 Spark 的预构建版本并设置了 SPARK_HOME 环境变量。我安装了 findspark 并运行代码:
import findspark
findspark.init()
我收到一个值错误:
ValueError: 找不到 Spark,请确保 SPARK_HOME 环境已设置或 Spark 位于预期位置(例如,来自 homebrew 安装)。
但是 SPARK_HOME 变量已设置。 Here 是一张截图,显示了我系统上的环境变量列表。
有没有人遇到过这个问题或者知道如何解决这个问题?我只发现了一个旧的讨论,其中有人将 SPARK_HOME 设置为错误的文件夹,但我不认为这是我的情况。
【问题讨论】:
-
我在您发布的屏幕截图中没有看到您的环境变量列表。您能否编辑图像以突出显示它们,以便更容易找到它们。
-
亲爱的 dmlicht,您说的非常对,它不存在!可能是在 Windows 中截屏的问题...Here 是指向带有 env 变量的图像的链接。感谢您发现这一点! (我也尝试将 SPARK_HOME 作为用户变量而不是系统变量来执行此操作,但它没有用)
标签: python-3.x apache-spark pyspark