【发布时间】:2017-06-16 13:18:55
【问题描述】:
所以我正在本地模式下运行 spark 作业。 我使用以下命令运行作业
spark-submit --master local[*] --driver-memory 256g --class main.scala.mainClass target/scala-2.10/spark_proj-assembly-1.0.jar 0 large.csv 100 outputFolder2 10
我在具有 32 个内核和 256GB RAM 的机器上运行它。创建conf时,我使用以下代码
val conf = new SparkConf().setMaster("local[*]").setAppName("My App")
现在我在本地模式下,Spark 在单个 JVM 中运行所有内容,但这是否意味着它只启动一个驱动程序并将其用作执行程序。在我的时间线中,它显示添加了一个执行程序驱动程序。 当我进入执行器页面时,只有一个分配了 32 个核心的执行器
这是默认行为吗?我期待 spark 会为每个核心启动一个执行器,而不是一个执行器来获取所有核心。如果有人可以解释这种行为,那就太好了
【问题讨论】:
标签: scala apache-spark