【发布时间】:2020-04-08 19:09:15
【问题描述】:
我正在使用 GCP Composer 来编排 ETL……
创建实例时,我将 Python 版本设置为 Python 3
使用 DataFlowPythonOperator 的任务之一,如果从我们的本地 dev-docker 实例启动,它工作正常(Airflow v1.10.1 + Python 3.6.9)
如果我从运行 Airflow v1.10.1 的 Docker 映像运行它,它会使用 Apache Beam Python 3.6 SDK 2.16.0
每当我们部署到 composer-1.7.9-airflow-1.10.1 时,任务都会使用 Python 2.7...
如果从 Composer 启动,它还始终使用适用于 Python 2.5.0 的 Google Cloud Dataflow SDK 运行 Dataflow 作业
Composer 默认考虑 Python 2.7 版本,这会导致很多转换崩溃……
我找不到配置 Composer 以使用 Python 3.x 创建和运行 Dataflow 作业的方法……
命令:
$ gcloud composer environments describe etl --location us-central1
结果:
softwareConfig:
imageVersion: composer-1.7.9-airflow-1.10.1
pythonVersion: '3'
【问题讨论】:
标签: google-cloud-platform google-cloud-dataflow airflow google-cloud-composer