【发布时间】:2018-02-18 11:16:57
【问题描述】:
谁能告诉我如何将 Spark 数据帧转换为 Scala 中的 Array[String]。
我用过以下的。
x =df.select(columns.head, columns.tail: _*).collect()
上面的 sn-p 给了我一个 Array[Row] 而不是 Array[String]
【问题讨论】:
-
.map { row => row.toString() }?? -
感谢您的回复。这样就行了。你能告诉我,如果我们使用.map { row => row.toString() .mkString(",")} 打印出来时消除括号“[”和“]”。
-
mkString 从一个数组中创建一个字符串...这是所有 Scala 知识。在 Java 或 Python 中,如何使数组成为一种刺痛?我的意思是,您的问题/问题完全不在 Spark 范围内
标签: scala apache-spark spark-dataframe