【问题标题】:How do you import a custom python library onto an apache spark pool with Azure Synapse Analytics?如何使用 Azure Synapse Analytics 将自定义 Python 库导入到 Apache Spark 池中?
【发布时间】:2021-05-12 11:37:51
【问题描述】:

根据 Microsoft 的文档,可以上传 python 轮文件,以便您可以在 Synapse Analytics 中使用自定义库。 这是该文档:https://docs.microsoft.com/en-us/azure/synapse-analytics/spark/apache-spark-azure-portal-add-libraries

我创建了一个简单的库,其中只有一个 hello world 函数,我可以使用 pip 在我自己的计算机上安装它。所以我知道我的轮子文件有效。

我将我的 Wheel 文件上传到 Microsoft 文档中要求上传文件的位置。

我还发现了一个人在做我想做的事的 youtube 视频。 这是视频:https://www.youtube.com/watch?v=t4-2i1sPD4U

Microsoft 的文档提到这一点,“可以在会话之间添加或修改自定义包。但是,您需要等待池和会话重新启动才能看到更新的包。”

据我所知,没有办法重新启动池,我也不知道如何判断池是否已关闭或已重新启动。

当我尝试在笔记本中使用该库时,我收到一个未找到模块的错误。

【问题讨论】:

    标签: python-wheel azure-synapse


    【解决方案1】:

    扩容或缩容将强制集群重启。

    【讨论】:

      【解决方案2】:

      按照 HimanshuSinha-msft 的建议,更改火花池的规模设置会重新启动火花池。不过那不是我的问题。

      实际的问题是我需要存储文件的数据湖存储中的 Storage Blob Data Contributor 角色。我假设因为我已经拥有所有者权限并且因为我可以创建一个文件夹并在那里上传我拥有所有权限我需要。一旦我获得了存储 Blob 数据贡献者角色,尽管一切正常。

      【讨论】:

        猜你喜欢
        • 2021-01-05
        • 2021-12-02
        • 2021-06-10
        • 2021-08-26
        • 2022-01-13
        • 2021-04-23
        • 2022-11-30
        • 2021-10-18
        • 2022-12-02
        相关资源
        最近更新 更多