【发布时间】:2011-08-31 13:52:35
【问题描述】:
我正在对一个包含时间数据的非常大的表进行分区,并考虑我应该以何种粒度进行分区。 Postgres partition documentation 声称“大量分区可能会大大增加查询计划时间”,并建议将分区与“多达一百个”分区一起使用。
假设我的表保存了十年的数据,如果我按周分区,我最终会得到超过 500 个分区。在排除这一点之前,我想更好地了解分区数量对查询计划时间的影响。是否有人对此进行了基准测试,或者是否有人了解其内部工作原理?
【问题讨论】:
-
他们几乎肯定会;我只是每周选择一次,以便更实际地获得更大的数字。可以考虑 20 年以上的每月分区。我主要对约束感兴趣,以及它们之间的区别是什么,即 50 vs. 100 个分区。
标签: performance postgresql partitioning