【问题标题】:Running Spark on Windows Error 5 (Access Denied) even when running as Admin即使以管理员身份运行,在 Windows 错误 5(拒绝访问)上运行 Spark
【发布时间】:2016-03-23 01:15:41
【问题描述】:

我从 Spark 开始,所以不太确定我的问题出在哪里,并在这里寻找有用的提示。我正在尝试以管理员身份在 Windows 7 机器上运行 Spark(pyspark),但它似乎无法正常工作(我仍然收到 WindowsError 5)。见下图:

我已经下载了文件(1.2.0 版,为 Hadoop 2.4 或更高版本预构建),通过命令行使用 tar 解压缩并在调用 bin\pyspark 之前设置 IPYTHON=1。当我调用它时,pyspark 会运行,但我会根据图像收到以下错误。

当我尝试调用某些 SparkContext 对象时,我得到 name 'sc' is not defined。

我已经安装了 python 2.7.8,Spyder IDE 并且在公司网络环境中。

有没有人知道这里可能发生了什么?我查了几个问题,例如Why am i getting WindowsError: [Error 5] Access is denied?,但找不到线索。

【问题讨论】:

    标签: hadoop apache-spark ipython pyspark windowserror


    【解决方案1】:

    简单地说:

    我遇到了同样的问题。对我来说,是$spark/bin 目录中的*.cmd 文件没有被标记为可执行文件;请尝试通过以下方式确认:

    • 右键单击pyspark2.cmd 并:
    • 属性/安全选项卡然后检查“读取和执行”

    我在另一个网站上找到了解决方法,建议下载hadoop-winutils-2.6.0.zip(抱歉没有链接)。以下是使用的 cmd 示例(移动到正确的目录后):

    t:\hadoop-winutils-2.6.0\bin\winutils.exe chmod 777 *
    

    我确实需要运行 chmod 777 cmd 以使 /tmp/hive 也可写。 祝你好运!

    (......这里是新的 - 抱歉格式不好)
    (更新:Matt 感谢您修复格式问题!)

    根本原因:我通过tar -zxf <file.tgz>在windows上使用的tar程序不适用 提取文件的正确属性。在这种情况下,“可执行”文件 没有正确设置。是的,也许我应该更新我的 cygwin 版本。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2017-12-07
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2012-12-09
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多