【发布时间】:2017-12-28 12:22:00
【问题描述】:
我正在尝试在我的系统中以独立模式运行 spark。我系统的当前规格是 8 核和 32 Gb 内存。基于this article,我计算火花配置如下:
spark.driver.memory 2g
spark.executor.cores 3
spark.executor.instances 2
spark.executor.memory 20g
maximizeResourceAllocation TRUE
我像这样在我的 jupyter 笔记本中创建了 spark 上下文,并以此检查并行度级别
sc = SparkContext()
sc.defaultParallelism
默认并行度给我 8。我的问题是为什么它给我 8,即使我提到了 2 个内核?如果它没有给我系统的实际并行度,那么如何获得实际的并行度?
谢谢!
【问题讨论】:
标签: apache-spark pyspark databricks