【问题标题】:Attach description of columns in Apache Spark using parquet format使用 parquet 格式附加 Apache Spark 中列的描述
【发布时间】:2019-05-29 19:22:27
【问题描述】:

我读了一个镶木地板:

df = spark.read.parquet(file_name)

并获取具有以下内容的列:

df.columns

并返回一个列列表 ['col1', 'col2', 'col3']

我读到 parquet 格式能够在文件中存储一些元数据。

有没有办法存储和读取额外的元数据,例如,附上每列的人工描述?

谢谢。

【问题讨论】:

标签: apache-spark pyspark apache-spark-sql parquet


【解决方案1】:

无法在 Parquet 文件中读取或存储任意附加元数据。

当提到 Parquet 文件中的元数据时,它指的是与字段相关的技术元数据,包括嵌套字段的数量、类型信息、长度信息等。如果您查看 Parquet 文档中的 SchemaElement 类( https://static.javadoc.io/org.apache.parquet/parquet-format/2.6.0/org/apache/parquet/format/SchemaElement.html) 您将找到架构中每个字段的所有可用元数据。这不包括字段名称之外的任何人类可读的描述。

可以在此处的“文件格式”部分找到 Parquet 元数据的一个很好的概述 - https://parquet.apache.org/documentation/latest/

【讨论】:

    猜你喜欢
    • 2017-04-30
    • 2015-10-28
    • 2018-03-05
    • 2018-11-30
    • 1970-01-01
    • 2018-08-02
    • 2011-01-10
    • 1970-01-01
    • 2016-07-28
    相关资源
    最近更新 更多