【发布时间】:2016-03-30 14:39:58
【问题描述】:
我正在运行一个 Spark Streaming 程序,该程序使用 mapreduce 作业以 AvroParquet 格式写入文件。该程序在集群上运行正常,但在本地失败。
代码
import org.apache.hadoop.mapreduce.Job
val job = Job.getInstance()
抛出以下异常:
Method threw 'java.lang.IllegalStateException' exception. Cannot evaluate org.apache.hadoop.mapreduce.Job.toString()
这里是用于提交火花流作业的代码:
SparkConf conf = new SparkConf(false)
.setMaster("local[2]")
.setAppName("test");
SparkContext sc = new SparkContext(conf);
MyClass job = new MyClass();
job.run();
class MyClass(){
protected def run(): Unit ={
val ssc: StreamingContext = createStreamingContext(parameters)
// here there is something like
// stream.map(func1).reduceBykey(func2).foreachRDD(rdd => {val job = Job.getInstance()})
ssc.start()
}
【问题讨论】:
-
您是否也在本地使用 spark-submit 提交作业?
-
不,我已经编辑了问题来解释它。
标签: scala hadoop apache-spark mapreduce