【发布时间】:2025-12-30 14:30:06
【问题描述】:
我在 oracle 数据库中有一个表,其中包含大约 5GB 大小的大约 7 亿条记录。我必须每天运行一项工作以将 oracle 表复制到雪花。由于雪花中没有直接连接到 oracle 数据库的连接器,因此我必须首先从 oracle 数据库中提取数据到 csv 文件,然后使用 python 脚本将该 csv 文件上传到雪花。我尝试使用 sqlplus 将数据提取到 csv。但是 sqlplus 需要很长时间才能提取数据。所以我的问题是: 1.从oracle数据库中提取数据最快的方法是什么? 2.由于我每天都要运行一个工作来更新这个oracle表为雪花,有没有其他方法可以完成这个任务?
感谢任何帮助。
【问题讨论】:
-
你真的想将 7 亿条记录写入 CSV 文件吗?
-
CSV 文件只是我想的一个界面。我的主要议程是将那 7 百万条记录写入雪花。我的 oracle 表每天都会更新,我也必须每天在雪花中更新它?
-
我认为 csv 可能是执行此任务的一种解决方案,因为雪花没有直接连接到 oracle 数据库
-
你看过类似this的东西吗?
-
就个人而言,我会考虑使用带有两个连接器的 Python。打开与两个数据库的连接并避免写入中间磁盘。使用适当的调优,例如cx-oracle.readthedocs.io/en/latest/user_guide/…
标签: oracle snowflake-cloud-data-platform