【问题标题】:Pass parameter to Azure Data Factory-ADF activity based on trigger基于触发器将参数传递给 Azure 数据工厂-ADF 活动
【发布时间】:2020-06-14 09:11:02
【问题描述】:

我有 Azure 数据管道,我必须在其中将参数传递给 Databricks 活动。我为该活动添加了多个基于事件的触发器(更新 blob 文件夹)。当特定触发器被激活时,它应该将一个参数传递给 Databricks 活动并基于该笔记本运行。有没有办法将参数从基于事件的触发器传递到 Databricks 笔记本活动?

【问题讨论】:

    标签: azure azure-pipelines azure-data-factory databricks azure-data-factory-2


    【解决方案1】:

    触发器给出2个参数。

    • @triggerBody().fileName

    • @triggerBody().folderPath

    您必须将此添加到触发器的 JSON 代码中

            "parameters": {
                "FPath": "@triggerBody().folderPath"
            }
    

    将此参数用作管道变量@triggerBody().FPath,并将该变量用于其他活动。详细解释请参考以下链接

    https://www.mssqltips.com/sqlservertip/6063/create-event-based-trigger-in-azure-data-factory/

    【讨论】:

    • 感谢您在这里分享您的解决方案,您能接受您的解决方案作为答案吗?因此,对于遇到相同问题的其他成员轻松找到解决方案将很有帮助。祝你有美好的一天:)
    • @Nikhil @triggerBody().filenae 仅适用于第一个活动,有什么方法可以在管道中的第二个活动中获得它
    • @BrijanElwadhi:如答案中所述。将 triggerBody().fileName 分配给管道参数,您应该能够在管道中的任何位置使用它。
    猜你喜欢
    • 1970-01-01
    • 2020-01-18
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2022-08-04
    • 1970-01-01
    • 2021-07-27
    • 1970-01-01
    相关资源
    最近更新 更多