【问题标题】:Is there a way to write a Spark dataframe to a .dat file?有没有办法将 Spark 数据帧写入 .dat 文件?
【发布时间】:2020-09-19 06:59:01
【问题描述】:

我试过这个,但没有用。据我了解,Spark 不支持.dat 文件格式。我不想将文件写为.csv.json,然后稍后通过shell 脚本进行转换。

a.write.format("dat").save(outputPath)

【问题讨论】:

  • DAT 是一种泛型类型,只有创建它的应用程序才能理解。首先可以是二进制或文本,具体取决于应用程序。因此,有效的 Spark 将无法理解这种格式,因为每个应用程序都会有所不同。直到和除非它以 Spark 支持的格式之一存储
  • 没有内置或直接支持您正在寻找的内容

标签: dataframe apache-spark write


【解决方案1】:

Spark 格式函数不接受“dat”作为参数。您可以在文档中获得更多信息:https://spark.apache.org/docs/latest/sql-data-sources-load-save-functions.html

很抱歉,您可以做的最简单的事情是创建 csv 并稍后将其转换为 dat

【讨论】:

    猜你喜欢
    • 2020-07-20
    • 1970-01-01
    • 1970-01-01
    • 2017-11-11
    • 1970-01-01
    • 1970-01-01
    • 2016-06-07
    • 2017-08-17
    • 2018-11-21
    相关资源
    最近更新 更多