【发布时间】:2011-07-01 19:21:01
【问题描述】:
我们正在寻求创建一个从大量设备接收日志文件的软件。我们每天使用日志查看大约 2000 万行(每个日志行 2kb/每行)。
我开发了很多软件,但从未使用过如此大量的输入数据。数据需要可搜索、可排序、可按源 IP、目标 IP、警报级别等分组。
它应该结合类似的日志条目(发生 6 次等)
任何关于什么类型的设计、数据库和围绕这个问题的一般想法的想法和建议都将不胜感激。
更新:
找到这个演示文稿,似乎是一个类似的场景,对此有什么想法吗?
http://skillsmatter.com/podcast/cloud-grid/mongodb-humongous-data-at-server-density
【问题讨论】:
-
是否需要是数据库。多久会被查询一次?您需要多快得到结果? Microsoft 的 LogParser 允许您以 SQL 样式查询磁盘上的日志文件。 codinghorror.com/blog/2005/08/microsoft-logparser.html
-
将有数百名用户登录、查看和更新已解决的日志条目,因此每个日志条目都是“管理的”。结果应该很快显示出来。
标签: database performance database-design