【发布时间】:2016-05-11 08:29:39
【问题描述】:
我有一个包含向量的 spark 数据框:
org.apache.spark.sql.DataFrame = [sF: vector]
我正在尝试将其转换为值的 RDD:
org.apache.spark.rdd.RDD[(Double, Double)]
但是,我无法正确转换它。我试过了:
val m2 = m1.select($"sF").rdd.map{case Row(v1, v2) => (v1.toString.toDouble, v2.toString.toDouble)}
它编译,但我得到一个运行时错误:
scala.MatchError: [[-0.1111111111111111,-0.2222222222222222]] (of class org.apache.spark.sql.catalyst.expressions.GenericRowWithSchema)
当我这样做时:
m2.take(10).foreach(println).
是不是我做错了什么?
【问题讨论】:
标签: scala apache-spark