【发布时间】:2019-05-22 23:29:55
【问题描述】:
我是 Spark 的新手,在学习这个框架时,我发现,据我所知,用 Scala 编写的 Spark 应用程序有两种运行方式:
- 将项目打包成 JAR 文件,然后使用 spark-submit 脚本运行。
- 直接使用 sbt run 运行项目。
我想知道这两种执行模式之间的区别是什么,尤其是当使用 sbt run 运行时,当它使用 spark-submit 完美运行时会抛出 java.lang.InterruptedException。
谢谢!
【问题讨论】:
-
sbt run将在您的本地机器上运行您的项目 - 它有利于在开发期间进行本地测试/调试。spark-submit是在生产环境中运行项目的首选方式,尤其是因为它将处理您的程序在集群中的分布。
标签: scala apache-spark sbt spark-submit