【发布时间】:2023-04-08 09:26:01
【问题描述】:
我有大量来自主数据库的数据,我正在通过应用一些逻辑来清理数据来读取和写入 CSV。这是一个超过 100K 的大型数据集。 我正在使用 beanshell 写入 CSV,速度非常快。
现在的最终目标是将该数据写入下一个 mySQL DB。
理想情况下,我不希望涉及 CSV 并直接写入 mySQL DB,但这可能会有一个问题,那就是我需要添加 JDBC 步骤来调用它以获得 10 万条记录。
所以我想仍然写入 CSV,然后我想从那里将记录拆分为 1000 或 2000 组,以减少 SQL 查询的负载。
注意:我无法删除 beanshell 部分,因为我正在解析 JSON 响应,然后写入 CSV,因此必须对其进行处理。
任何建议的解决方案都将受到高度赞赏。
【问题讨论】:
-
所以添加一个新数据库,将数据从第一个复制到新数据库,应用您的更改进行清理,重命名第一个数据库,然后重命名第二个数据库,并保留原始数据库,直到下次清理。数据库可以在同一台服务器上。当然你需要在 sql 中编写你的清理算法
标签: mysql csv jmeter bulkinsert