【发布时间】:2020-08-07 14:24:35
【问题描述】:
我正在使用 Python 对 BigQuery 数据集运行查询,然后将结果放入 Python 数据集。 查询运行正常;我可以看到在 BQ 中为数据集中的结果创建了一个临时表,但是在使用查询客户端的 to_dataset 方法时,它会因 504 Deadline Exceeded 错误而崩溃
client = bigquery.Client( credentials=credentials, project= projectID )
dataset = client.dataset('xxx')
table_ref = dataset.table('xxx')
JobConfig = bigquery.QueryJobConfig(destination = table_ref)
client.delete_table(table_ref, not_found_ok=True)
QueryJob = client.query(queryString, location='EU', job_config=JobConfig)
QueryJob.result()
results = client.list_rows(table_ref, timeout =100).to_dataframe()
直到最后一行都运行良好。我在 list_rows 方法中添加了一个超时参数,但它没有帮助。
我在安装了 Python 3.8 的 Windows 虚拟机上运行它。
(我还在我的笔记本电脑上测试了相同的代码,它工作得很好 - 不知道有什么不同。)
【问题讨论】:
标签: python dataframe google-bigquery virtual-machine