【发布时间】:2017-05-28 10:16:31
【问题描述】:
我在 spark-shell 中执行代码时遇到问题。
[Stage 1:> (0 + 0) / 16]
17/01/13 06:09:24 WARN TaskSetManager: Stage 1 contains a task of very large size (1057 KB). The maximum recommended task size is 100 KB.
[Stage 1:> (0 + 4) / 16]
在此警告之后执行被阻止。
谁能解决?
我试过了,但它并没有解决问题。
val conf = new SparkConf()
.setAppName("MyApp")
.setMaster("local[*]")
.set("spark.driver.maxResultSize", "3g")
.set("spark.executor.memory" ,"3g");
val sc = new SparkContext(conf);`
【问题讨论】:
标签: scala apache-spark