【问题标题】:Memory parameters for Spark-submit commandSpark-submit 命令的内存参数
【发布时间】:2018-11-08 06:22:31
【问题描述】:

如何计算 spark-submit 命令的最佳内存设置?

我从 Oracle 将 4.5 GB 数据带入 Spark,并执行一些转换,例如加入 Hive 表并将其写回 Oracle。我的问题是如何提出具有最佳内存参数的 spark-submit 命令。

spark-submit --master yarn-cluster --driver-cores 2 \
--driver-memory 2G --num-executors 10 \
--executor-cores 5 --executor-memory 2G \
--class com.spark.sql.jdbc.SparkDFtoOracle2 \
Spark-hive-sql-Dataframe-0.0.1-SNAPSHOT-jar-with-dependencies.jar

如何计算,驱动程序内存应该是多少,需要多少驱动程序/执行程序内存,需要多少内核等?

【问题讨论】:

    标签: apache-spark memory-management spark-submit


    【解决方案1】:

    一般来说,这是一个没有灵丹妙药答案的复杂问题。最佳选择不仅取决于您的数据特征和操作类型,还取决于系统行为(Spark 优化器等)。一些有用的提示可以找到here

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2021-12-11
      • 2021-12-22
      • 1970-01-01
      • 2017-11-18
      相关资源
      最近更新 更多