【发布时间】:2022-01-25 12:43:41
【问题描述】:
我的笔记本电脑中安装了 Spark。我可以执行spark-shell 命令并打开scala shell,如下所示:
C:\Spark1_6\spark-1.6.0-bin-hadoop2.6\bin>spark-shell
scala>
但是当我尝试执行pyspark 命令时:
C:\Spark1_6\spark-1.6.0-bin-hadoop2.6\bin>pyspark
我收到以下错误消息:
'python' 未被识别为内部或外部命令
我确实手动设置了环境用户“路径”变量。 通过附加
";C:\Python27"
我重新启动了笔记本电脑,但仍然出现同样的错误。 谁能帮我解决这个问题?我没有正确更新环境变量吗?
版本:Spark:1.6.2 Windows:8.1
【问题讨论】:
-
在 shell 中运行命令“python”会发生什么?
-
如果我也输入“python”命令,我也会遇到同样的错误。
-
你确定你已经正确设置了路径变量吗?检查你的安装路径,看是否和给定的路径一样。
-
你的python没有正确安装
-
我从python.org/downloads下载python。
标签: python windows apache-spark pyspark environment-variables