【发布时间】:2020-01-02 07:44:45
【问题描述】:
我有一个名为 df 的数据块数据框。我想将它作为 csv 文件写入 S3 存储桶。我有 S3 存储桶名称和其他凭据。我检查了这里提供的在线文档https://docs.databricks.com/spark/latest/data-sources/aws/amazon-s3.html#mount-aws-s3,它说使用以下命令
dbutils.fs.mount(s"s3a://$AccessKey:$SecretKey@$AwsBucketName", s"/mnt/$MountName", "sse-s3")
dbutils.fs.put(s"/mnt/$MountName", "<file content>")
但我拥有的是数据框而不是文件。我怎样才能实现它?
【问题讨论】:
-
试试
df.write.csv('/mnt/mountname/filename.csv')或更多选项见spark.apache.org/docs/latest/…
标签: apache-spark amazon-s3 pyspark databricks