【发布时间】:2020-04-04 20:40:47
【问题描述】:
假设我想在转换另一个数据集后创建 2 种类型的指标:metricA 或 metricB。如果满足某个条件,它将同时生成 metricA 和 B,如果不满足条件,则仅生成 metric A。想法是将 2 个 metric 写入 2 个不同的路径(pathA,pathB)。
我采取的方法是创建一个 GeneralMetric 的 Dataset,然后根据里面的内容,写入不同的路径,但显然它不起作用,因为 Dataset 内部的模式匹配不起作用
val s: SparkSession = SparkSession
.builder()
.appName("Metric")
.getOrCreate()
import s.implicits._
case class original (id : Int, units: List[Double])
case class MetricA (a: Int, b: Int, filtered_unit: List[Double])
case class MetricB (a: Int, filtered_unit: List[Double])
case class GeneralMetric(metricA: MetricA, metricB: Option[MetricB])
def createA: MetricA = {
MetricA(1, 1, List(1.0, 2.0)
}
def createB: MetricB = {
MetricB(1, List(10.0, 20.0)
}
def create (isBoth: Boolean): GeneralMetric = {
if(isBoth) {
val a: MetricA = createA()
val b: MetricB = createB()
GeneralMetric(a, Some(b))
}
else {
val a: MetricA = createA()
GeneralMetric(a, None)
}
}
val originalDF: DataFrame
val result : Dataset[GeneralMetric] =
originalDF.as[original]
.map { r =>
if(r.id == 21) create(true)
else create(false)
}
val pathA: String = "s3://pathA"
val pathB: String = "s3://pathB"
//below code obviously wouldn't work
result.map(x => {
case (metricA, Some(metricB)) => {
metricA.write.parquet(pathA)
metricB.write.parquet(pathB)
}
case (metricA, None) => metricA.write.parquet(pathA)
})
我想到的下一个方法是将结果放入 List[GeneralMetric] 中,其中 GeneralMetric 是 密封轨迹,由 MetricA 和 MetricB 扩展,但我如何制作数据集转换返回一个 GeneralMetric 列表。
任何想法都会有所帮助
【问题讨论】:
标签: scala apache-spark generics