【发布时间】:2015-05-16 05:09:40
【问题描述】:
我在 HDFS 中有一个 JSON 数据集,其中包含时间戳和计数。原始数据如下所示:
{"timestamp": "2015-03-01T00:00:00+00:00", "metric": 23}
{"timestamp": "2015-03-01T00:00:01+00:00", "metric": 17}
...
时间戳的格式几乎与 Hive 友好的 'yyyy-mm-dd hh:mm:ss' 格式相匹配,但有一些区别:日期和时间之间有一个 'T'。还有一个时区偏移。例如,时间戳可能是 2015-03-01T00:00:00+00:00 而不是 2015-03-01 00:00:00。
我可以创建一个表,前提是我将时间戳列视为字符串:
add jar hdfs:///apps/hive/jars/hive-json-serde-0.2.jar;
CREATE EXTERNAL TABLE `log`(
`timestamp` string,
`metric` bigint)
ROW FORMAT SERDE "org.apache.hadoop.hive.contrib.serde2.JsonSerde" WITH SERDEPROPERTIES ("timestamp"="$.timestamp", "metric"="$.metric")
LOCATION 'hdfs://path/to/my/data';
这并不理想,因为通过将其视为字符串,我们失去了使用时间戳函数(例如 DATE_DIFF、DATE_ADD 等)的能力,而无需从查询中进行转换。一种可能的解决方法是使用CTAS 和CAST the timestamp using a regular expression,但这需要将数据复制到其新格式中。这似乎效率低下,不符合“读模式”的精神。
有没有一种方法可以在不处理数据两次(即一次加载,一次将时间戳转换为真正的时间戳)的情况下为该数据创建架构?
【问题讨论】:
标签: hive