【问题标题】:Installing pyspark on hadoop and yarn在 hadoop 和 yarn 上安装 pyspark
【发布时间】:2014-08-19 04:24:05
【问题描述】:

我在hadoopyarn 上安装了spark。 当我启动 pyspark shell 并尝试计算一些东西时,我得到了这个错误。

Error from python worker:
  /usr/bin/python: No module named pyspark

pyspark 模块应该在那里,我必须放一个外部链接吗?

【问题讨论】:

  • 请更新您的系统配置。操作系统、Hadoop 和 Yarn 版本等
  • 您的问题中没有足够的信息。

标签: python hadoop apache-spark hadoop-yarn


【解决方案1】:

我也遇到了同样的问题。这是由于使用 Java7 构建 Spark。使用 Java6 应该可以修复它。这实际上是 python 的错 - 它的 zipimport 模块不支持 Java7 使用的 Zip64 格式来打包包含 65536+ 个文件的大型 Jar。 这是帮助我的谷歌热门。 http://mail-archives.apache.org/mod_mbox/incubator-spark-user/201406.mbox/%3CCAMJOb8kcGk0PqiOGJu6UoKCeysWCuSW3xwd5wRs8ikpMgD2DAg@mail.gmail.com%3E

这也说明了这一点。 https://issues.apache.org/jira/browse/SPARK-1911

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2016-06-24
    • 2015-07-08
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2022-07-05
    相关资源
    最近更新 更多