【发布时间】:2025-12-01 12:25:02
【问题描述】:
我正在研究 Azure Databricks。目前我的 Pyspark 项目在“dbfs”上。我配置了一个 spark-submit 作业来执行我的 Pyspark 代码(.py 文件)。但是,根据 Databricks 文档,火花提交作业只能在新的自动化集群上运行(可能是设计使然)。
有没有办法在现有的交互式集群上运行我的 Pyspark 代码?
我还尝试从 %sh 单元格中的笔记本运行 spark-submit 命令,但没有用。
【问题讨论】:
标签: apache-spark pyspark databricks azure-databricks