【问题标题】:Upload a csv file using google scripts to bigquery fails使用谷歌脚本将 csv 文件上传到 bigquery 失败
【发布时间】:2014-07-04 01:43:52
【问题描述】:

我做了一个谷歌脚本来自动将 csv 文件上传到 bigquery。这是一个小文件(5mb),它成功了。现在,我正在尝试使用相同的脚本上传一个 150MB 的 csv 文件,但我总是收到“服务器错误”。它应该工作到 1GB,不是吗?

感谢您的帮助!

阿尔伯特

【问题讨论】:

  • 您是否有用于服务器错误的 BigQuery 作业 ID?您可能会从 google 应用程序脚本中获得客户端超时。
  • 嗨,乔丹,它适用于较小的文件,所以,我认为这不是问题所在。我试图找出一种方法来上传(不是我,其他用户,所以,我们不能使用 bigquery UI)一个大型 csv 文件来处理。我正在考虑云存储,但我也找不到方法...

标签: csv google-apps-script google-bigquery


【解决方案1】:

Bigquery 有 1GB 的限制,但 Google Apps Script UrlFetch Post Size 最大可以达到 10MB。您不能使用 Apps Script UrlFetch 发布 100MB 文件

在此处查看配额限制。

【讨论】:

  • 在这种情况下......你有什么建议?我试图构建一个引擎 Java 应用程序,但我被困在 eclipse 设置上。但是,通过 UI 将 200mb 的文件上传到云存储是一种简单的方法吗?例如?云存储接口没用,因为它只和我的用户一起运行,我希望其他人能够上传。
  • 有很多第三方工具可用于 Big Query。您可以使用其中任何一种。 goo.gl/0XbpC9
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2018-09-10
  • 1970-01-01
相关资源
最近更新 更多