【发布时间】:2019-03-28 15:22:15
【问题描述】:
我在管道中使用 Read(BigQuerySource(query="...", use_standard_sql=True)) 从 BigQuery 加载数据。在 Cloud Dataflow 上,运行大约 3 分钟后,它会每隔几秒记录一次尝试刷新以获取初始 access_token 的信息,直到作业结束。如何解决?
【问题讨论】:
-
这似乎是常规 oauth2 流程的一部分。用于访问资源服务器的
access_token有一个过期时间,由客户端自动刷新。日志记录的严重性也是INFO,所以这不是您需要担心的错误或错误。 -
好的。谢谢
标签: google-bigquery google-cloud-dataflow apache-beam