【问题标题】:Not able to load 5gb csv file from cloud storage to bigquery table无法将 5gb csv 文件从云存储加载到 bigquery 表
【发布时间】:2016-10-15 01:24:16
【问题描述】:

我在谷歌云存储上的文件大小超过 5gb,我无法将该文件加载到 bigquery 表中。

抛出的错误是:

1) 错误太多 2)从位置开始的行中的值太多:2213820542

我搜索并发现这可能是因为达到了最大文件大小。所以我的问题是我如何上传大小大于配额政策的文件,请帮助我。我在 bigquery 上有一个结算帐户。

【问题讨论】:

  • 您报告的两个错误都与文件的大小无关:两者都与其中有问题的内容有关。

标签: google-bigquery


【解决方案1】:

5GB 没问题。该错误表示从位置 2213820542 开始的行,它的列比指定的多,例如您提供了一个包含 n 列的架构,并且该行在拆分后具有多于 n 列。

【讨论】:

  • 好吧,我得到了这个问题,实际上其中一个文件是有描述,其中包含双相当“这是抛出这个错误,但我想知道我可以在大查询表上上传超过 5 gb 的文件,提前谢谢
猜你喜欢
  • 1970-01-01
  • 2021-11-02
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2021-04-24
  • 1970-01-01
  • 1970-01-01
  • 2017-02-10
相关资源
最近更新 更多