【问题标题】:Dataflow pipelines failing due to "staged package jar"数据流管道因“暂存的包 jar”而失败
【发布时间】:2017-01-16 04:32:16
【问题描述】:

数据流作业 (id 2017-01-15_19_15_22-2979660111155895381) 失败并出现以下错误,我们不知道它发生的原因。我们每天从同一台机器上运行约 100 个数据流作业,并且大约在同一时间(之前和之后)其他作业成功启动,所以我认为这不是由于谷歌云服务帐户(尽管错误消息表明如此)。 数据流团队是否能够挖掘并让我们知道发生了什么?

(ce2f98d99f483fed): Staged package commons-codec-1.6-WXD1SIO0gxskuX8RJbon5g.jar at location 'gs://.../commons-codec-1.6-WXD1SIO0gxskuX8RJbon5g.jar' is inaccessible.
2017-01-15 (19:15:30) Workflow failed. Causes: (ce2f98d99f48346e): One or more access checks for temp location or staged f...
(edd80087cf3fc85d): Workflow failed. Causes: (ce2f98d99f48346e): One or more access checks for temp location or staged files failed. Please refer to other error messages for details. For more information on security and permissions, please see https://cloud.google.com/dataflow/security-and-permissions.

编辑:在过去的 48 小时内,我们已经看到 5-6 个不同的作业因为类似的问题而失败(暂存的 jar 文件不可访问或最终确定“gcs 的写入步骤”失败)。除了旧帖子 (Google Cloud Dataflow jobs failing, inaccessible jars & 410 gone errors) 之外,我在 SO 上找不到与此相关的任何内容。

【问题讨论】:

  • 过去我们也遇到过这些(暂时的)错误。这通常表示 GCS 存在问题。当它出现时,我们倾向于做的是从暂存桶中删除所有文件并再次上传所有内容。你可以试试看是否有帮助。
  • 感谢您分享您的经验。看来我们遇到了同样的问题,清理暂存桶后,问题就消失了。

标签: google-cloud-dataflow


【解决方案1】:

这也是我们在使用 GCS 时遇到的暂时性错误。作为一种解决方法,您可以做的是删除暂存存储桶的所有内容并重新上传所有内容。

我们会在管道的每个新版本中执行清理桶,即使这不是必需的。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2020-09-17
    • 1970-01-01
    • 1970-01-01
    • 2019-07-06
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多