【发布时间】:2010-03-17 02:26:22
【问题描述】:
我正计划做一些大项目(1 000 000 个用户,大约 500 个请求前秒 - 在热门时间)。 为了提高性能,我将不使用任何关系 dbms(每个请求都可能在 mysql 等关系 dbms 中花费大量指令) - 所以我不能使用 DAL。
我的问题是:
- web2py 如何处理大流量,是否同时工作?我正在考虑使用 web2py 或 Gork - Zope,
- 如何使用 zodb(Z 对象数据库)处理大量数据?与对象关系型 postgresql 有比较吗?
请给我一些建议。
【问题讨论】:
-
恕我直言,对于与性能相关的问题,参数过于模糊。您能否根据每个请求的特定类型事务(写入、读取、阻塞)的平均可能性的数量重新表述?你存储什么样的数据?它多久改变一次?使缓存的内容失效和重新填充的成本有多大(以及这种情况必须发生的频率)?
标签: python zope web2py zodb grok