【发布时间】:2017-01-02 21:02:09
【问题描述】:
Spark 架构完全围绕执行器和核心的概念展开。我想看看在集群中运行的 Spark 应用程序实际上有多少个执行程序和内核运行。
我试图在我的应用程序中使用低于 sn-p 但没有运气。
val conf = new SparkConf().setAppName("ExecutorTestJob")
val sc = new SparkContext(conf)
conf.get("spark.executor.instances")
conf.get("spark.executor.cores")
有没有办法使用SparkContext Object 或SparkConf object 等获取这些值。
【问题讨论】:
-
您可以在 Spark UI 中查看。转到 http://
:4040 并按“Executors”选项卡。这因集群管理器而异。 -
克里希纳,你能得到吗?随时提问
-
你能测试吗?
-
非常感谢@RamPrasad。它有很大帮助。尝试了不同大小的不同数据集,并能够获得执行者节点。
-
@KrishnaReddy 你可以使用history server。
标签: python scala hadoop apache-spark executors