【发布时间】:2017-11-16 13:27:03
【问题描述】:
我尝试在我的 64 位 Windwos 7 机器上安装 Apache Spark。
我使用了指南 -
这就是我所做的-
安装 Scala 设置环境变量 SCALA_HOME 并将 %SCALA_HOME%\bin 添加到 Path 结果:scala 命令在命令提示符下工作
解压预构建的 Spark 设置环境变量 SPARK_HOME 并将 %SPARK_HOME%\bin 添加到 Path
下载 winutils.exe 将 winutils.exe 放在 C:/hadoop/bin 下 设置环境变量 HADOOP_HOME 并将 %HADOOP_HOME%\bin 添加到 Path
我已经安装了 JDK 8。
现在,问题是,当我从 C:/spark-2.1.1-bin-hadoop2.7/bin 运行 spark-shell 时,我得到了这个 -
"C:\Program Files\Java\jdk1.8.0_131\bin\java" -cp "C:\spark-2.1.1-bin-hadoop2.7\conf\;C:\spark-2.1.1-bin-hadoop2.7\jars\*" "-Dscala.usejavacp=true" -Xmx1g org spark.repl.Main --name "Spark shell" spark-shell
这是一个错误吗?我做错了吗?
谢谢!
【问题讨论】:
标签: apache-spark windows-7 installation