【发布时间】:2020-04-24 01:00:35
【问题描述】:
Scala 菜鸟,使用 Spark 2.3.0。
我正在使用创建 JSON 字符串列的 udf 创建 DataFrame:
val result: DataFrame = df.withColumn("decrypted_json", instance.decryptJsonUdf(df("encrypted_data")))
输出如下:
+----------------+---------------------------------------+
| encrypted_data | decrypted_json |
+----------------+---------------------------------------+
|eyJleHAiOjE1 ...| {"a":547.65 , "b":"Some Data"} |
+----------------+---------------------------------------+
UDF 是一个外部代码,我无法更改。我想将 decrypted_json 列拆分为单独的列,以便输出 DataFrame 如下所示:
+----------------+----------------------+
| encrypted_data | a | b |
+----------------+--------+-------------+
|eyJleHAiOjE1 ...| 547.65 | "Some Data" |
+----------------+--------+-------------+
【问题讨论】:
-
您是否尝试过spark.apache.org/docs/latest/api/java/org/apache/spark/sql/…中描述的from_jason
标签: json scala apache-spark user-defined-functions