【问题标题】:how to pass "Data Flow/Data Set" parameters to azure data factory pipeline from Python SDK如何将“数据流/数据集”参数从 Python SDK 传递到 Azure 数据工厂管道
【发布时间】:2021-05-08 06:36:20
【问题描述】:

通过下面的链接,我了解到使用 Python SDK,我们可以创建 Pipeline 并运行它。

https://docs.microsoft.com/en-us/azure/data-factory/quickstart-create-data-factory-python

但我尝试在 create_run 函数中的 parameters={} 中传递数据流参数,但它不起作用。 (看起来它正在使用管道参数而不是数据流参数)

任何示例/细节都会有所帮助!!

【问题讨论】:

  • 你能告诉我们你的代码吗?
  • credentials = UserPassCredentials('userid','pwd') adf_client = DataFactoryManagementClient(credentials, subscription_id) df = adf_client.factories.get(rg_name, df_name) p_name='DATA_STAGE' run_response = adf_client.pipelines .create_run(rg_name, df_name, p_name, parameters={"Table_name":"FILE_INFO","Target_Query":"select * from schema1.FILE_INFO where cast(adf_create_date as date) in ('2020-12-17','2020 -12-16') ","Application_name":"ACAL"}) run_response.run_id pipeline_run = adf_client.pipeline_runs.get(rg_name, df_name, run_response.run_id) print(pipeline_run.status)

标签: python azure azure-data-factory azure-data-factory-2 azure-sdk-python


【解决方案1】:

据我所知,没有直接的方法可以做到这一点。作为一种解决方法,您可以创建管道参数,然后将它们传递给数据流。像这样的:

【讨论】:

  • 谢谢史蒂夫。是的,这有效。我创建了一个管道参数并将该参数传递给数据流。
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 2021-06-22
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2022-01-12
  • 1970-01-01
  • 1970-01-01
相关资源
最近更新 更多