【发布时间】:2018-02-26 18:31:50
【问题描述】:
我的英语很差,对不起,但我真的需要帮助。
我使用spark-2.0.0-bin-hadoop2.7 和hadoop2.7.3。并从 s3 读取日志,将结果写入本地 hdfs。我可以成功运行火花驱动程序使用独立模式。但是当我在纱线模式下运行相同的驱动程序时。扔了
17/02/10 16:20:16 ERROR ApplicationMaster: User class threw exception: java.io.IOException: No FileSystem for scheme: s3n
hadoop-env.sh我加了
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HADOOP_HOME/share/hadoop/tools/lib/*
run hadoop fs -ls s3n://xxx/xxx/xxx, can list files.
我想应该是找不到aws-java-sdk-1.7.4.jar and hadoop-aws-2.7.3.jar
怎么办。
【问题讨论】: