【问题标题】:How do we import large datasets from Google BigQuery to R?我们如何将大型数据集从 Google BigQuery 导入 R?
【发布时间】:2019-05-30 19:33:22
【问题描述】:

我们如何将大型数据集从 Google BigQuery 导入到 R 中?

我尝试使用 BigQuery 包并尝试导入。我能够成功导入较小的数据集,但不能成功导入大型数据集

sql <- "SELECT * FROM Table name"

todo_copies <- query_exec(sql, project = 'data-warehouse', dataset = 'name', useLegacySql = FALSE)

处理的字节数错误:请求的资源太大而无法返回 [responseTooLarge]

【问题讨论】:

  • 将查询粘贴到 BQ Web UI 是否有效?
  • 如果您只想要整个表,请使用导出而不是查询
  • 导出会导致本地 PC 出现内存问题,所以我想从大查询中获取 R 上的数据作为数据框。此查询是用 R 编写的,用于从大查询中获取数据到 R

标签: r google-cloud-platform google-bigquery


【解决方案1】:

该消息指的是与 BQ 中的查询作业的 Maximum response size 相关的限制。 write to a detination table可以管理;但是,此选项很可能无法满足您的需求。

请注意,R 文档表明 query_exec is being deprecated 支持 bq_project_query 和其他线程,如 How to load large datasets to R from BigQuery?,建议 adjust the page_size property

"出现错误responseTooLarge时应该调整"

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2020-08-03
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2011-06-26
    • 2017-09-19
    • 2017-12-05
    相关资源
    最近更新 更多