【发布时间】:2017-02-24 02:49:17
【问题描述】:
我对 Spark Streaming 和 Scala 还是很陌生。我有一个来自 kafka 主题的 Json 数据和一些其他随机日志数据。我能够像这样过滤掉 json 数据
val messages = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, topicsSet).map(_._2).filter (x => x.matches("^[{].*" ))
我的 json 数据如下所示。
{"time":"125573","randomcol":"abchdre","address":{"city":"somecity","zip":"123456"}}
我正在尝试解析 json 数据并将其放入配置单元表中。 有人可以指出我正确的方向。 谢谢
【问题讨论】:
-
问题是什么?
-
我正在尝试解析 json 数据并放入配置单元表中。
标签: json scala hadoop apache-spark