【问题标题】:Installing Apache Spark on Windows 7 | spark-shell not working在 Windows 7 上安装 Apache Spark |火花壳不工作
【发布时间】:2017-11-16 13:27:03
【问题描述】:

我尝试在我的 64 位 Windwos 7 机器上安装 Apache Spark。

我使用了指南 -

  1. Installing Spark on Windows 10

  2. How to run Apache Spark on Windows 7

  3. Installing Apache Spark on Windows 7 environment

这就是我所做的-

  1. 安装 Scala 设置环境变量 SCALA_HOME 并将 %SCALA_HOME%\bin 添加到 Path 结果:scala 命令在命令提示符下工作

  2. 解压预构建的 Spark 设置环境变量 SPARK_HOME 并将 %SPARK_HOME%\bin 添加到 Path

  3. 下载 winutils.exe 将 winutils.exe 放在 C:/hadoop/bin 下 设置环境变量 HADOOP_HOME 并将 %HADOOP_HOME%\bin 添加到 Path

我已经安装了 JDK 8。

现在,问题是,当我从 C:/spark-2.1.1-bin-hadoop2.7/bin 运行 spark-shell 时,我得到了这个 -

"C:\Program Files\Java\jdk1.8.0_131\bin\java" -cp "C:\spark-2.1.1-bin-hadoop2.7\conf\;C:\spark-2.1.1-bin-hadoop2.7\jars\*" "-Dscala.usejavacp=true" -Xmx1g org spark.repl.Main --name "Spark shell" spark-shell

这是一个错误吗?我做错了吗?

谢谢!

【问题讨论】:

    标签: apache-spark windows-7 installation


    【解决方案1】:

    我在尝试使用 Windows 7 安装 Spark 本地时遇到了同样的问题。请确保以下路径正确,我相信我会与您合作。

    • 创建 JAVA_HOME 变量:C:\Program Files\Java\jdk1.8.0_181\bin
    • 将以下部分添加到您的路径中:;%JAVA_HOME%\bin
    • 创建 SPARK_HOME 变量:C:\spark-2.3.0-bin-hadoop2.7\bin
    • 将以下部分添加到您的路径中:;%SPARK_HOME%\bin
    • Hadoop 路径中最重要的部分应该在 winutils.ee 之前包含 bin 文件,如下所示:C:\Hadoop\bin 肯定会在此路径中找到 winutils.exe。
    • 创建 HADOOP_HOME 变量:C:\Hadoop
    • 将以下部分添加到您的路径中:;%HADOOP_HOME%\bin

    现在你可以运行 cmd 并编写 spark-shell 了。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2016-03-31
      • 2014-04-19
      • 2014-06-23
      • 2011-03-29
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多