【问题标题】:Snappy Compression快速压缩
【发布时间】:2019-01-22 12:55:25
【问题描述】:

我正在尝试将 avro 文件存储为具有快速压缩的 parquet 文件。尽管数据被写入为带有 filename.snappy.parquet 的镶木地板,但文件大小保持不变。粘贴代码。

代码:

sqlContext.setConf("spark.sql.parquet.compression.codec","snappy") 

orders_avro.write.parquet("/user/cloudera/problem5/parquet-snappy-compress")

【问题讨论】:

    标签: apache-spark hadoop apache-spark-sql parquet snappy


    【解决方案1】:

    Snappy 压缩是 parquet-mr(Spark 用来编写 Parquet 文件的库)中的默认值。所以这里唯一改变的是文件名。

    【讨论】:

      猜你喜欢
      • 2023-03-09
      • 2010-11-16
      • 1970-01-01
      • 1970-01-01
      • 2015-08-25
      • 1970-01-01
      • 2016-02-03
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多