【发布时间】:2016-11-23 17:55:19
【问题描述】:
我使用推荐值配置了 Ceph(使用文档中的公式)。我有 3 个 OSD,我的配置(我已经放在监控节点和所有 3 个 OSD 上)包括:
osd pool default size = 2
osd pool default min size = 1
osd pool default pg num = 150
osd pool default pgp num = 150
当我运行ceph status 时,我得到:
health HEALTH_WARN
too many PGs per OSD (1042 > max 300)
这令人困惑有两个原因。首先,因为推荐的公式没有满足 Ceph。其次,也是最令人费解的是,它说我每个 OSD 有 1042 个 PG,而我的配置是 150。
我做错了什么?
【问题讨论】:
-
你有多少个池?
-
@NoahWatkins - 这对我来说是全新的,我希望这是你所要求的。
ceph osd lspools返回:0 rbd,1 .rgw.root,2 default.rgw.control,3 default.rgw.data.root,4 default.rgw.gc,5 default.rgw.log,6 default.rgw.users.uid,7 default.rgw.users.keys,8 default.rgw.meta,9 default.rgw.users.swift,10 default.rgw.buckets.index,11 default.rgw.buckets.data,- 所以 12 个池? -
每个池都有一组归置组。所以如果每个池有 100 个 PG,那么一个有 12 个池的集群将有 1200 个 PG。这可能有用:ceph.com/pgcalc
标签: ceph