【发布时间】:2020-12-30 06:30:37
【问题描述】:
我使用pip install pyspark 来安装 PySpark。我没有设置任何路径等;但是,我发现所有内容都已下载并复制到C:/Users/Admin/anaconda3/scripts。我在 Python3 内核中打开 jupyter notebook 并尝试运行 SystemML 脚本,但它给了我一个错误。我意识到我还需要将 winutils.exe 放在 C:/Users/Admin/anaconda3/scripts 中,所以我这样做了,脚本按预期运行。
现在,我的程序包括 GridSearch,当我在我的个人笔记本电脑上运行它时,它比在云数据平台上运行的速度明显慢,在云数据平台上我可以使用 Spark(例如 IBM Watson Studio)启动内核。
所以我的问题是:
(i) 如何将 PySpark 添加到 Python3 内核?还是当我import pyspark 时它已经在后台工作了?
(ii) 当我使用 pandas 和 scikit-learn 在同一个数据集上运行相同的代码时,性能并没有太大差异。 PySpark 何时比 pandas 和 scikit-learn 更受青睐/更有利?
另一件事是,尽管 PySpark 似乎工作正常并且我能够导入它的库,但当我尝试运行时
import findspark
findspark.init()
它抛出错误(在第 2 行),说 list is out of range。我用谷歌搜索了一下,发现一个建议说我必须明确设置SPARK_HOME='C:/Users/Admin/anaconda3/Scripts';但是当我这样做时,pyspark 停止工作(findspark.init() 仍然不工作)。
如果有人能解释发生了什么,我将不胜感激。谢谢。
【问题讨论】:
-
你能显示完整的异常信息吗?
标签: python apache-spark pyspark jupyter-notebook