【发布时间】:2017-03-29 19:12:33
【问题描述】:
我在 Linux 64 (Fedora 25) 上的 Intellij (CE 2017.1) Scala 控制台中将 Spark 代码作为脚本运行。我在开始时设置了 SparkContext:
import org.apache.spark.{SparkConf, SparkContext}
val conf = new SparkConf().
setAppName("RandomForest").
setMaster("local[*]").
set("spark.local.dir", "/spark-tmp").
set("spark.driver.memory", "4g").
set("spark.executor.memory", "4g")
val sc = new SparkContext(conf)
但运行的 SparkContext 总是以同一行开头:
17/03/27 20:12:21 INFO SparkContext:运行 Spark 2.1.0 版
17/03/27 20:12:21 INFO MemoryStore:MemoryStore 开始时容量为 871.6 MB
17/03/27 20:12:21 INFO BlockManagerMasterEndpoint:使用 871.8 MB RAM,BlockManagerId(驱动程序,192.168.1.65,38119,无)注册块管理器 192.168.1.65:38119
Spark Web UI 中的 Executors 选项卡显示相同的数量。 在启动之前从终端导出_JAVA_OPTIONS="-Xms2g -Xmx4g" 在这里也没有效果。
【问题讨论】:
标签: scala apache-spark intellij-idea fedora-25