【发布时间】:2019-03-13 12:45:15
【问题描述】:
我尝试以两种不同的方式将spark-r 作业步骤添加到我的工作流模板中。
使用 gcloud 命令:
gcloud beta dataproc workflow-templates add-job spark-r gs://path/to/script.R \
--step-id=<stepid> --workflow-template=<templateid>
或者通过导入 YAML 定义:
jobs:
- sparkRJob:
mainRFileUri: gs://path/to/script.R
stepId: <stepid>
placement:
managedCluster:
clusterName: cluster-sparkr
config:
gceClusterConfig:
zoneUri: europe-west4-b
masterConfig:
machineTypeUri: n1-standard-4
workerConfig:
machineTypeUri: n1-standard-4
numInstances: 4
但是两种方式都会导致以下错误:
INVALID_ARGUMENT:作业“”必须提供作业定义
这让我对我到底错过了什么感到有些困惑。
【问题讨论】:
标签: google-cloud-platform workflow google-cloud-dataproc