【问题标题】:Spark number of cores used by driver驱动程序使用的 Spark 内核数
【发布时间】:2017-08-29 15:54:39
【问题描述】:

在集群模式下,我可以使用 spark.driver.cores 为驱动程序设置内核数。但是在客户端和驱动程序本地模式的情况下使用多少个内核

【问题讨论】:

    标签: apache-spark apache-spark-sql spark-dataframe


    【解决方案1】:

    如果您使用 master local[*] 在本地运行您的应用程序,这里 * 提到他们将使用您本地系统中的所有空闲内核,如果您使用的是 local[n],这里 n 是您想要的内核数在您的应用程序中使用。它是您的应用程序在本地模式下使用的核心,因为当您在本地驱动程序中运行应用程序时,执行器会在单个 JVM 中启动。

    【讨论】:

    • 在客户端模式的情况下,您是否也可以指定核心数
    • 是的,当您使用 master local[n] 启动应用程序时可以,在这里您可以指定 n 值作为本地模式的线程数
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2020-07-10
    • 2012-06-07
    • 1970-01-01
    • 2015-10-12
    • 2014-02-05
    • 2015-12-31
    相关资源
    最近更新 更多