【发布时间】:2016-05-24 16:19:32
【问题描述】:
使用独立的 Spark Java 执行以下代码 sn-p,我得到的状态总是 WAITING 并出现以下错误。当我尝试添加 Print 语句时它不起作用。是否有任何我可能错过的配置来运行多个作业?
15/09/18 15:02:56 INFO DAGScheduler:从阶段 0 提交 2 个缺失的任务(SparkTest.java:143 的过滤器中的 MapPartitionsRDD[2])
15/09/18 15:02:56 INFO TaskSchedulerImpl:添加任务集 0.0 和 2 任务
15/09/18 15:03:11 WARN TaskSchedulerImpl:初始作业未接受 任何资源;检查您的集群 UI 以确保工作人员 注册并有足够的资源
15/09/18 15:03:26 WARN TaskSchedulerImpl:初始作业未接受 任何资源;检查您的集群 UI 以确保工作人员 注册并有足够的资源
15/09/18 15:03:41 WARN TaskSchedulerImpl:初始作业未接受 任何资源;检查您的集群 UI 以确保工作人员 注册并有足够的资源
JavaRDD<String> words = input.flatMap(new FlatMapFunction<String, String>() //Ln:143
{
public Iterable<String> call(String x)
{
return Arrays.asList(x.split(" "));
}
});
// Count all the words
System.out.println("Total words is" + words.count())
【问题讨论】:
-
您的基础架构是什么?你在使用集群吗?你用的是什么提交命令?请提供更多信息,以便我们提供帮助:)。
-
它是一个独立的火花集群...我使用这个命令启动:./spark-submit ../lib/sparkapp.jar --class com.test.logs.spark.SparkTest
-
你指定master吗?如果您可以编辑您的问题并在其中添加所有这些信息,那就太好了。
标签: java apache-spark