【发布时间】:2016-02-08 00:43:56
【问题描述】:
在brew install apache-spark 之后,spark-shell 中的sc.textFile("s3n://...") 以java.io.IOException: No FileSystem for scheme: s3n 失败。通过使用spark-ec2 启动的EC2 机器访问spark-shell 中的情况并非如此。 homebrew 公式似乎是使用足够晚的 Hadoop 版本构建的,无论 brew install hadoop 是否首先运行都会引发此错误。
如何使用自制软件安装 spark 以便它能够读取 s3n:// 文件?
【问题讨论】:
-
这可能是 Hadoop 客户端版本错误。你可能想看看那个。
标签: hadoop amazon-s3 apache-spark homebrew