【发布时间】:2017-11-06 02:43:25
【问题描述】:
我正在尝试从 DataFrame 获取列并将其转换为 RDD[Vector]。
问题是我的列名称中有一个“点”作为以下数据集:
"col0.1","col1.2","col2.3","col3.4"
1,2,3,4
10,12,15,3
1,12,10,5
这就是我正在做的:
val df = spark.read.format("csv").options(Map("header" -> "true", "inferSchema" -> "true")).load("C:/Users/mhattabi/Desktop/donnee/test.txt")
val column=df.columns.map(c=>s"`${c}`")
val rows = new VectorAssembler().setInputCols(column).setOutputCol("vs")
.transform(df)
.select("vs")
.rdd
val data =rows.map(_.getAs[org.apache.spark.ml.linalg.Vector](0))
.map(org.apache.spark.mllib.linalg.Vectors.fromML)
val mat: RowMatrix = new RowMatrix(data)
//// Compute the top 5 singular values and corresponding singular vectors.
val svd: SingularValueDecomposition[RowMatrix, Matrix] = mat.computeSVD(mat.numCols().toInt, computeU = true)
val U: RowMatrix = svd.U // The U factor is a RowMatrix.
val s: Vector = svd.s // The singular values are stored in a local dense vector.
val V: Matrix = svd.V // The V factor is a local dense matrix.
println(V)
请帮助我考虑名称中带有点的列。谢谢
【问题讨论】:
-
您是否尝试更改列名?
-
@RameshMaharjan 它适用于没有点的列,但我需要用点来修复它,任何帮助谢谢
-
我建议用点保存架构,更改列名,并在完成新列名后用点将其改回。不行吗?
标签: scala apache-spark apache-spark-sql apache-spark-mllib apache-spark-ml