【发布时间】:2019-03-28 12:25:48
【问题描述】:
所以我读了一个带有架构的 csv 文件:
mySchema = StructType([StructField("StartTime", StringType(), True),
StructField("EndTime", StringType(), True)])
data = spark.read.load('/mnt/Experiments/Bilal/myData.csv', format='csv', header='false', schema = mySchema)
data.show(truncate = False)
我明白了:
+---------------------------+---------------------------+
|StartTime |EndTime |
+---------------------------+---------------------------+
|2018-12-24T03:03:31.8088926|2018-12-24T03:07:35.2802489|
|2018-12-24T03:13:25.7756662|2018-12-24T03:18:10.1018656|
|2018-12-24T03:23:32.9391784|2018-12-24T03:27:57.2195314|
|2018-12-24T03:33:31.0793551|2018-12-24T03:37:04.6395942|
|2018-12-24T03:43:54.1638926|2018-12-24T03:46:38.1188857|
+---------------------------+---------------------------+
现在,当我使用以下方法将这些列从字符串类型转换为时间戳类型时:
data = data.withColumn('StartTime', to_timestamp('StartTime', "yyyy-MM-dd'T'HH:mm:ss.SSSSSS"))
data = data.withColumn('EndTime', to_timestamp('EndTime', "yyyy-MM-dd'T'HH:mm:ss.SSSSSS"))
我得到空值:
+---------+-------+
|StartTime|EndTime|
+---------+-------+
|null |null |
|null |null |
|null |null |
|null |null |
|null |null |
+---------+-------+
【问题讨论】:
-
请通过以上链接进行必要的修改。enter link description here
-
@Prathik,感谢您的回复。我已经能够使用 to_timestamp() 将字符串解析为时间戳。但我希望精度达到纳秒,类似于我展示的字符串。
-
这个问题有一张 JIRA 票。它指出该票已解决,但不确定为什么它仍然无法正常工作。 issues.apache.org/jira/browse/SPARK-17914
-
@Gladiator,我真的想要包含毫秒和纳秒部分的时间戳列。有什么线索或想法吗?
-
您的用例是什么?我认为,如果你只是排序,你仍然可以将它作为一个字符串,它会一样工作
标签: datetime pyspark databricks to-timestamp