【发布时间】:2021-11-30 14:20:04
【问题描述】:
将历史数据负载从 Teradata 迁移到 Snowflake 需要采取哪些步骤? 想象一下,所有表的历史数据总计超过 200TB。
我正在考虑两种方法。但是我没有足够的专业知识和经验来执行它们。所以找人来填补空白并提出一些建议
方法 1- 使用 TPT/FEXP 脚本
- 我知道可以编写 TPT/FEXP 脚本来为表格生成文件。如何创建可以为数据库中的所有表生成文件的单个脚本。 (因为想象为所有表创建 500 个奇怪的脚本是不切实际的)。
- 一旦你准备好这个脚本,它是如何实时执行的?我们是否创建一个 shell 脚本并通过 Autosys/Tidal 等企业调度程序对其进行调度?
- 生成这些文件后,如果每个文件都很大,如何在 Linux 机器中拆分它们(因为在 Snowflake 中加载数据建议的大小在 100-250MB 之间)
- 如何将这些文件移动到 Azure Data Lake?
- 使用 COPY INTO / Snowpipe 加载到 Snowflake Tables 中。
方法 2
- 使用 ADF 复制活动从 Teradata 中提取数据并在 ADLS 中创建文件。
- 使用 COPY INTO/Snowpipe 加载到 Snowflake Tables 中。
这两种方法中哪一种是最好的建议方法? 总的来说,每种方法都面临哪些挑战。
【问题讨论】:
标签: snowflake-cloud-data-platform teradata azure-data-factory azure-data-lake-gen2