【发布时间】:2019-11-04 14:02:18
【问题描述】:
我正在尝试使用 databricks pyspark 从 s3 存储桶连接和读取我的所有 csv 文件。当我使用具有管理员访问权限的存储桶时,它可以正常工作
data_path = 's3://mydata_path_with_adminaccess/'
但是当我尝试连接到一些需要 ACCESS_KEY_ID 和 SECRET_ACCESS_KEY 的存储桶时,它将无法工作并且访问被拒绝:
我试过了:
data_path = 's3://mydata_path_without_adminaccess/'
AWS_ACCESS_KEY_ID='my key'
AWS_SECRET_ACCESS_KEY='my key'
和:
data_path = ='s3://<MY_ACCESS_KEY_ID>:<My_SECRET_ACCESS_KEY>@mydata_path_without_adminaccess
【问题讨论】:
标签: python amazon-s3 pyspark databricks