【发布时间】:2020-06-28 08:22:42
【问题描述】:
我正在尝试在 Azure Databricks(不是笔记本)上部署 Scala 库来执行一些计算。我正在尝试从 Azure Datalake Store Gen 2 目录中读取一些 avro 文件,执行一些操作,然后使用 avro 将其再次存储在另一个目录中。
我正在关注这个guide。
我的理解是我需要挂载 Azure Datalake 的目录,这样我就可以直接从那里读取 avro 文件,所以我需要做这样的事情:
dbutils.fs.mount(
source = "abfss://<file-system-name>@<storage-account-name>.dfs.core.windows.net/",
mountPoint = "/mnt/<mount-name>",
extraConfigs = configs)
我的问题是我不知道如何将“dbutils”对象导入到我的项目中。我还使用Java SDK library(版本12.0.0-preview.6)来检索文件,但基本上我不知道如何使用Databricks。
任何帮助或提示将不胜感激。
【问题讨论】:
标签: scala azure-data-lake azure-databricks azure-data-lake-gen2