【发布时间】:2020-02-21 01:45:03
【问题描述】:
我正在使用 Gcloud Composer 启动 Dataflow 作业。
我的 DAG 包含两个 Dataflow 作业,它们应该一个接一个地运行。
import datetime
from airflow.contrib.operators.dataflow_operator import DataflowTemplateOperator
from airflow import models
default_dag_args = {
'start_date': datetime.datetime(2019, 10, 23),
'dataflow_default_options': {
'project': 'myproject',
'region': 'europe-west1',
'zone': 'europe-west1-c',
'tempLocation': 'gs://somebucket/',
}
}
with models.DAG(
'some_name',
schedule_interval=datetime.timedelta(days=1),
default_args=default_dag_args) as dag:
parameters = {'params': "param1"}
t1 = DataflowTemplateOperator(
task_id='dataflow_example_01',
template='gs://path/to/template/template_001',
parameters=parameters,
dag=dag)
parameters2 = {'params':"param2"}
t2 = DataflowTemplateOperator(
task_id='dataflow_example_02',
template='gs://path/to/templates/template_002',
parameters=parameters2,
dag=dag
)
t1 >> t2
当我签入数据流时,作业已成功,它应该创建的所有文件都已创建,但它似乎在美国地区运行,云作曲家环境在欧洲西部。
在气流中,我可以看到第一个作业仍在运行,所以第二个作业没有启动
我应该向 DAG 添加什么才能使其成功?如何在欧洲跑步?
任何关于如何进行的建议或解决方案将不胜感激。谢谢!
【问题讨论】:
标签: python google-cloud-dataflow google-cloud-composer