【发布时间】:2021-02-02 01:15:06
【问题描述】:
我在使用 pyspark 写入 S3 存储桶时遇到以下错误。
com.amazonaws.services.s3.model.AmazonS3Exception:状态代码:400,AWS 服务:Amazon S3,AWS 请求 ID:A0B0C0000000DEF0,AWS 错误代码:InvalidArgument,AWS 错误消息:使用 AWS KMS 指定服务器端加密的请求托管密钥需要 AWS 签名版本 4。,
我已在 S3 存储桶上使用 AWS KMS 服务应用服务器端加密。 我正在使用以下 spark-submit 命令 -
spark-submit --packages com.amazonaws:aws-java-sdk-pom:1.10.34,org.apache.hadoop:hadoop-aws:2.7.2 --jars sample-jar sample_pyspark.py
这是我正在处理的示例代码 -
spark_context = SparkContext()
sql_context = SQLContext(spark_context)
spark = SparkSession.builder.appName('abc').getOrCreate()
hadoopConf = spark_context._jsc.hadoopConfiguration()
hadoopConf.set("fs.s3a.impl", "org.apache.hadoop.fs.s3a.S3AFileSystem")
#Have a spark dataframe 'source_data
source_data.coalesce(1).write.mode('overwrite').parquet("s3a://sample-bucket")
注意:尝试将 spark-dataframe 加载到 s3 存储桶 [未启用服务器端加密] 并且成功
【问题讨论】:
-
您正在使用五年前的 s3a 连接器副本。尝试使用带有 hadoop-3.1 二进制文件的 spark 版本,看看会发生什么。
标签: amazon-web-services encryption pyspark server-side aws-kms