【发布时间】:2021-05-26 08:25:48
【问题描述】:
我有这个示例数据:
另存为test.json
{
"memberId": "Test0001",
"params": {"field1":"testField","field2":"testField2"}
"withoutValueSample": {}
}
这就是我在 Spark 中的阅读方式:
val session: SparkSession = SparkSession.builder().getOrCreate()
val inputRdd: RDD[Row] = session.read.json(test.json).rdd
我知道这是获取 memberId 的方法:
inputRdd.forEach(i => i.getString(0))
但是,我不知道如何获取“params”和“withoutValueSample”的值。我尝试执行.get(<index>).asInstanceOf[JsonObject],但出现此错误:java.lang.ClassCastException: org.apache.spark.sql.catalyst.expressions.GenericRowWithSchema cannot be cast to io.circe.JsonObject
如何获取参数和 withoutValueSample?谢谢。
【问题讨论】:
标签: json scala apache-spark