【问题标题】:How to convert SparkR dataframe to local R data table?如何将 SparkR 数据帧转换为本地 R 数据表?
【发布时间】:2017-12-07 07:47:58
【问题描述】:

我正在将本地 R 脚本更改为 sparkR。输入是 hive 表,我使用以下代码读取表:

>sparkR.session()
>results <- sql("SELECT * FROM temp.temp_ceshi limit 3")
>head(results)

>typeof(results)
[1] "S4"

本地 R 脚本使用 fread 读取 csv 文件。我想将 sparkR 数据框转换为 data.table 并使用本地 R 脚本。如何制作?

【问题讨论】:

  • 不要使用typeof。请改用str。提供更多信息。

标签: r apache-spark sparkr


【解决方案1】:

你可以使用collect()函数:

>results_df <- collect(results)

您还可以通过以下链接了解有关转换的更多信息: https://markobigdata.com/2016/03/26/sparkr-and-r-dataframe-and-data-frame/

【讨论】:

  • 这个问题是如何将 SparkR 转换为 data.table,而不是 dataframe。链接的文章根本没有提到data.table
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2016-08-14
  • 2019-01-16
  • 1970-01-01
  • 2023-01-21
  • 1970-01-01
  • 2014-04-15
相关资源
最近更新 更多