【发布时间】:2018-07-20 07:44:30
【问题描述】:
我正在尝试对我的 JSON 数据中的嵌套数据执行一些查询,但 spark 抱怨我的数据 (8) 超出了 LazySimpleSerde (7) 支持的嵌套级别。我无法弄清楚如何将 hive.serialization.extend.nesting.levels 属性设置为 true。
火花日志:
org.apache.hadoop.hive.serde2.SerDeException LazySimpleSerde 支持的嵌套级别数为 7 无法使用级别 8。对使用 LazySimpleSerde 的表使用 hive.serialization.extend.nesting.levels serde 属性。
【问题讨论】:
-
你试过通过 spark 设置吗?
sparkSession.sql("set hive.serialization.extend.nesting.levels = true") -
@RaphaelRoth 我试过了,但它不起作用,因为我仍然遇到同样的错误。我想知道您需要专门为使用 LazySimpleSerde 的表设置它吗?
标签: json apache-spark apache-spark-sql