【发布时间】:2020-02-19 08:15:11
【问题描述】:
Spark 版本是 2.3.3。 我正在尝试查找总/已用内存以及活动/总任务和其他执行程序特定信息。
在我的驱动程序中:-
sc.statusTracker.getExecutorInfos.foreach{
x=>
x.numRunningTasks()
}
我可以得到正在运行的任务的数量。但我也需要这些执行程序的总/已用内存。我在 Yarn 集群上运行了数千个作业。我们的想法是获取实际使用量与分配的内存,以便进一步优化这些。
更新: http://:8088/proxy//api/v1/applications//executors 提供了 UI 上可用的所有信息。计算期间使用的内存除外。这是我主要寻找的。p>
【问题讨论】:
标签: scala apache-spark