【发布时间】:2016-10-27 11:03:16
【问题描述】:
我正在使用 python 读取 Unicode 数据,然后对其进行预处理并将其存储在数据库中(Postgres)
现在数据库有 3 个表,每个表有 4 个属性和 700,000 个元组。我读取数据并根据我需要使用它的方式将其映射到 python 字典和列表。
现在我必须遍历所有这些元组,进行一些计算并再次写入数据库。
我必须像这样进行 1000 次迭代。问题是 1 次迭代大约需要 50 分钟,这使得不可能进行这么多次迭代。
有没有办法让这些迭代更快?
欢迎任何新想法。在 python 中不需要。
【问题讨论】:
-
对我来说,这听起来好像使用单个 UPDATE 而不是 700.000 个单个更新更好。 Edit 您的问题并添加一些示例数据和基于该数据的预期输出。 Formatted 文本 请no screen shots
-
数据集不是英文的。我仍将使用虚拟数据集编辑帖子。现在关于更新。我只更新一次。没有单一的更新。我将整个数据作为 python 列表(很快将更改为 pandas),然后迭代并进行所有计算,并一次使用串联的更新命令更新数据库。单次迭代所花费的时间是我关心的问题。 :)