【发布时间】:2016-04-11 18:49:07
【问题描述】:
我可以很容易地在 Scala 中将 DataFrame 转换为 Dataset:
case class Person(name:String, age:Long)
val df = ctx.read.json("/tmp/persons.json")
val ds = df.as[Person]
ds.printSchema
但在 Java 版本中,我不知道如何将 Dataframe 转换为 Dataset?有什么想法吗?
我的努力是:
DataFrame df = ctx.read().json(logFile);
Encoder<Person> encoder = new Encoder<>();
Dataset<Person> ds = new Dataset<Person>(ctx,df.logicalPlan(),encoder);
ds.printSchema();
但是编译器说:
Error:(23, 27) java: org.apache.spark.sql.Encoder is abstract; cannot be instantiated
已编辑(解决方案):
基于@Leet-Falcon 答案的解决方案:
DataFrame df = ctx.read().json(logFile);
Encoder<Person> encoder = Encoders.bean(Person.class);
Dataset<Person> ds = new Dataset<Person>(ctx, df.logicalPlan(), encoder);
【问题讨论】:
-
似乎缺少 Java /w Spark 1.6 的 API
-
如何在 Java 中编写缺少的 api?
标签: java apache-spark spark-dataframe apache-spark-dataset