【发布时间】:2018-12-27 15:00:04
【问题描述】:
我在 AWS 上有一个 HDP 集群,我也有一个 s3(在其他帐户中),我的 hadoop 版本是 Hadoop 3.1.1.3.0.1.0-187
现在我想从 s3(在不同帐户中)读取并处理,然后将结果写入我的 s3(与集群相同的帐户)。
但是按照 HDP 指南Here 的说法,我只能配置我的帐户或其他帐户的一个密钥。
但在我的情况下,我想配置两个帐户密钥,那么该怎么做呢?
由于某些安全原因,其他帐户无法更改存储桶策略以添加在我的帐户中创建的 IAM 角色,因此我尝试如下访问
- 配置其他账户的密钥
- 为我的账户添加了 IAM 角色(它具有我的存储桶的访问策略)
但是当我尝试从 spark write 访问我的帐户 s3 时仍然出现以下错误
com.amazonaws.services.s3.model.AmazonS3Exception:状态代码:400,AWS 服务:Amazon S3
【问题讨论】:
标签: amazon-web-services apache-spark amazon-s3