【问题标题】:Google Bigquery: Spark - Incompatible table partitioning specificationGoogle Bigquery:Spark - 不兼容的表分区规范
【发布时间】:2017-01-09 11:42:05
【问题描述】:

从未分区的临时表向按天分区的最终表提交复制作业时,我收到了

原因:java.io.IOException:ErrorMessage:不兼容的表 分区规范。期望分区规范 间隔(类型:天),但输入分区规范为无;

here看到另一个人有这个问题

我现在面临同样的问题,使用 Spark saveAsNewAPIHadoopDataset,它使用连接器创建临时表,然后大概使用复制命令将数据加载到目标

修复 Pavan 是否有 eta?

【问题讨论】:

    标签: apache-spark google-bigquery hadoop2


    【解决方案1】:

    我们最近进行了更改以支持此功能(在这种情况下,它将复制到当前日期的分区中)。我们预计该更改将很快发布。

    【讨论】:

    • 谢谢Paven 知道什么时候发布吗?我在哪里可以看到它发布的消息?
    猜你喜欢
    • 1970-01-01
    • 2020-05-16
    • 1970-01-01
    • 1970-01-01
    • 2013-01-29
    • 1970-01-01
    • 2020-01-10
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多