【发布时间】:2021-05-14 02:27:02
【问题描述】:
作为 DAG 的一部分,我正在使用以下代码触发 gcp pyspark dataproc 作业,
dag=dag,
gcp_conn_id=gcp_conn_id,
region=region,
main=pyspark_script_location_gcs,
task_id='pyspark_job_1_submit',
cluster_name=cluster_name,
job_name="job_1"
)
如何将变量作为参数传递给可在脚本中访问的 pyspark 作业?
【问题讨论】:
标签: apache-spark google-cloud-platform pyspark airflow google-cloud-dataproc