【发布时间】:2021-09-24 05:15:34
【问题描述】:
**使用
- Spark v3.0.2
- JAR 文件 - snappy-java-1.1.8.2
- HADOOP=3.2.2
- JAVA - java-1.8.0-openjdk.x86_64**
正在执行:有和没有压缩键值(默认为 'snappy')。
df.write.option("compression", "snappy").mode("overwrite").partitionBy(part_labels).parquet(output_path)
【问题讨论】:
标签: pyspark compression parquet snappy