【发布时间】:2025-12-24 04:55:12
【问题描述】:
我正在阅读 Azure 数据块中的镶木地板文件: 使用 SparkR > read.parquet() 使用 Sparklyr > spark_read_parquet() 两个数据帧都不同,有什么方法可以将 SparkR 数据帧转换为 sparklyr 数据帧,反之亦然?
【问题讨论】:
-
一个 Spark 数据帧应该是一个 Spark 数据帧,不管创建它的 API 是什么。 (不过,不同的 API 可能会为它提供不同的转换方法。)你能详细说明你看到的具体差异吗?
-
我无法使用 sparklyr 命令对使用 read.parquet()(SparkR 命令)创建的数据帧进行数据操作。
-
这是意料之中的,因为即使 spark 数据帧相同,表示数据帧的 R 对象对于两个包也是不同的。此外,数据帧可能属于不同的火花上下文,具体取决于您的配置。为什么不直接用 sparklyr 读取 parquet 文件?
标签: r parquet databricks sparkr sparklyr