【问题标题】:Changing network of GCP dataflow jobs更改 GCP 数据流作业网络
【发布时间】:2020-07-25 06:32:00
【问题描述】:

需要更改超过 1000 个dataflow 工作的网络。现在它们正在默认网络中运行,我们需要将作业更改为使用 custom/shared VPC 。我想过使用下面的gcloud dataflow 支持--network parameter 来更改网络,但它可能不适用于所有工作。

gcloud dataflow jobs run wc --gcs-location gs://dataflow-templates-us-central1/latest/Word_Count --region us-central1 --subnetwork regions/us-east1/subnetworks/newkube --disable-public-ips

我主要担心的是,如果我使用上述命令更改网络,那么它也会调用dataflow 作业,这意味着作业使用的资源将再次启动。这对我来说只是为了改变网络而夸大了成本。

在不运行作业的情况下更改现有作业的网络的任何建议,以便在下次运行时在新网络上运行。

【问题讨论】:

    标签: google-cloud-platform automation google-cloud-dataflow


    【解决方案1】:

    您无需运行作业即可更改网络。无论您当前使用什么编排工具来触发这些数据流作业,您都需要进行更改以添加networksubnetwork(如果需要)。

    当编排工具执行数据流作业时,它将使用network 参数来启动该 VPC 中的工作程序。每次作业运行时,它都会检查这些配置并相应地启动工作机器。

    【讨论】:

    • 使用gcloud dataflow describe 命令识别用于作业的编排工具的任何方式。哪个参数将提供该信息?我知道有些工作是使用cloud composer 启动的,但我需要检查这数千个工作。由于我不是这些工作的所有者,因此有一些识别它的选项会有所帮助
    猜你喜欢
    • 1970-01-01
    • 2020-08-05
    • 2021-01-22
    • 2019-02-08
    • 2021-10-17
    • 2022-10-13
    • 1970-01-01
    • 2018-10-26
    • 1970-01-01
    相关资源
    最近更新 更多