【发布时间】:2015-08-04 08:58:26
【问题描述】:
我有一个程序可以处理大约 500 000 个文件 {Ai} 并且对于每个文件,它都会获取一个定义 {Di} 用于解析。
现在,每个文件 {Ai} 都由一个专用的 celery 任务解析,并且每次定义文件 {Di} 都被再次解析以生成一个对象。该对象用于解析文件 {Ai}(JSON 表示)。
我想存储定义文件(生成的对象){Di(object)} 以使其可用于整个任务。
所以我想知道管理它的最佳选择是什么:
- Memcahe + Python-memcached,
- 一个长时间运行的任务,使用 set(add)/get 接口“存储”对象。
对于性能和内存使用,最佳选择是什么?
【问题讨论】:
标签: python celery fileparsing