【发布时间】:2017-11-19 04:49:31
【问题描述】:
我正在尝试使用 Python 安装 Apache Spark,并在 7 月 11 日的版本中使用了 pip install python 命令。但是,虽然这成功安装并且我可以运行
from pyspark import SparkContext
在 python shell 中,我无法通过运行访问 pyspark shell
pyspark
或火花提交,与
spark-submit.
两者的错误都是“找不到指定的路径”。我在 Windows 上,怀疑我缺少 spark 的 JAR 文件。 pip install 不应该解决这个问题吗?
【问题讨论】:
标签: python apache-spark pip pyspark