【发布时间】:2020-01-13 01:14:26
【问题描述】:
我正在尝试从 Azure Databrics 运行 spark-submit。目前我可以创建一个作业,将 jar 上传到 Databrics 工作区中,然后运行它。
我的查询是:
有没有办法访问 GEN2 DataLake 存储上的 jar 并从 Databrics 工作区甚至从 Azure ADF 进行 spark-submit? (因为工作区和 GEN2 存储之间的通信受到保护“fs.azure.account.key”)
有没有办法从 databrics 笔记本进行 spark-submit?
【问题讨论】:
-
您可以安排 databricks 笔记本。见docs.databricks.com/user-guide/jobs.html#run-a-job 和docs.databricks.com/user-guide/notebooks/…
-
我已经这样做了。 (我在第一行写了。)我正在寻找一种方法来专门做第 1 点和第 2 点。您能对此提出建议或评论吗?
标签: scala azure apache-spark azure-databricks