【发布时间】:2016-09-23 01:57:19
【问题描述】:
我正在尝试在 Windows 8.1 中安装 spark 并出现以下错误。
C:>cd Program Files\spark-1.5.0\bin
C:\Program Files\spark-1.5.0\bin>spark-shell 'C:\Program' 未被识别为内部或外部命令, 可运行的程序或批处理文件。
C:\Program Files\spark-1.5.0\bin>
并完成先决条件,请参考以下命令,
C:\Users\Anbu>java -version java版本“1.8.0_65” Java(TM) SE 运行时环境 (build 1.8.0_65-b17) Java HotSpot(TM) 64 位服务器 VM(内部版本 25.65-b01,混合模式)
C:\Users\Anbu>scala -version Scala 代码运行器版本 2.11.8 -- 版权所有 2002-2016,LAMP/EPFL C:\Users\Anbu>
同时设置系统属性。
所以我错过了哪里?为什么会出现这个错误? 任何人请帮我安装火花。
谢谢, 暗部k
【问题讨论】:
-
你在路径中放了什么?您似乎忘记了引号,因此“程序文件”中的空格会破坏路径。
-
如你所说 C:\Program Files\spark-1.5.0\bin> 应该是 C:\ProgramFiles\spark-1.5.0\bin> ?
标签: hadoop apache-spark installation