【发布时间】:2016-07-05 06:39:19
【问题描述】:
如何在使用 databrick spark-xml 库读取 xml 文件时禁用科学计数法。 这是场景,我的 XML 文件包含带有这样空格的数值
<V1>42451267 </V1>
我得到的是 4.2451267E7 而不是 42451267
我该如何解决它
我的代码和xml文件在下面
val xmlLocation = "sampleFile/xml/sample.xml"
val rootTag = "RTS"
val rowTag = "COLUMNTYPE"
val sqlContext = MySparkDriver.getSqlContext().
read.format("com.databricks.spark.xml")
if (rootTag != null && rootTag.size == 0)
sqlContext.option("rootTag", rootTag)
sqlContext.option("rowTag", rowTag)
val xmlDF = sqlContext.load(xmlLocation)
xmlDF.show(false)
输出
[WrappedArray(4232323.0, 4.2451267E7),21-11-2000 01:04:34,NTS,212212112,100.0,100.0]
预计
[WrappedArray(4232323, 42451267),21-11-2000 01:04:34,NTS,212212112,100.0000,100.0000]
XML 文件
<RTS>
<COLUMNTYPE>
<D1>
<V1>4232323</V1>
<V1>42451267 </V1>
<V2>21-11-2000 01:04:34</V2>
<V3>NTS</V3>
<V4>212212112</V4>
<V7>100.0000</V7>
<V8>100.0000 </V8>
</D1>
</COLUMNTYPE>
</RTS>
任何帮助将不胜感激。
【问题讨论】:
-
如果您想要特定格式,请不要使用数字。使用所需格式的字符串。
-
感谢回复,但我该如何确定数据类型
-
@zero323 请帮帮我
标签: scala apache-spark dataframe scientific-notation