【问题标题】:AWS Data Pipeline; RedshiftLoadCopy failed; schema errorAWS 数据管道; RedshiftLoadCopy 失败;架构错误
【发布时间】:2017-10-31 17:07:49
【问题描述】:

我在 Redshift 中创建了我的架构,并希望使用 数据管道S3csv 文件填充我的表/strong>。

在字段参数下:myRedshiftTableName:

  1. 如果我只使用我的 tableName 而不指定 Schema,那么错误是:

名为“public.myTable”的输出表不存在且不存在 提供了createTableSql

  1. 如果我还指定了Schema,那么错误是:

名为“public.mySchema.myTable”的输出表不存在且不存在 提供了createTableSql

  1. 如果我删除表并在myRedshiftCreateTableSql 字段中指定Schema,则错误是:

错误:架构“mySchema”不存在

如何使用我自己定义的架构?

【问题讨论】:

  • 一定要使用aws数据管道吗?
  • 是的,我这样做了,我用 COPY 命令完成了,它工作了,但现在我必须使用数据管道。
  • 数据管道——有什么优势? (我在那里遇到了很多麻烦!)
  • 目标是使流程自动化,例如午夜后在 db 上运行作业,您会推荐任何其他方式/服务吗?
  • 我推荐你看看 DMS using S3 csv as source docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.S3.html DMS 是个好工具

标签: amazon-redshift amazon-data-pipeline


【解决方案1】:

转到编辑管道 > 数据节点 > 单击“添加可选字段”,然后指定您的架构名称。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2020-05-07
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多