【发布时间】:2013-04-07 07:34:34
【问题描述】:
我需要对 Javascript/Node.js 中的大型(5-10 Gb)日志文件进行一些解析(我正在使用 Cube)。
日志如下所示:
10:00:43.343423 I'm a friendly log message. There are 5 cats, and 7 dogs. We are in state "SUCCESS".
我们需要读取每一行,做一些解析(例如去除5、7和SUCCESS),然后使用他们的JS客户端将这些数据泵入Cube(https://github.com/square/cube)。
首先,Node 中逐行读取文件的规范方式是什么?
这似乎是网上相当普遍的问题:
- http://www.quora.com/What-is-the-best-way-to-read-a-file-line-by-line-in-node-js
- Read a file one line at a time in node.js?
很多答案似乎都指向一堆第三方模块:
- https://github.com/nickewing/line-reader
- https://github.com/jahewson/node-byline
- https://github.com/pkrumins/node-lazy
- https://github.com/Gagle/Node-BufferedReader
但是,这似乎是一项相当基本的任务 - 当然,在 stdlib 中有一种简单的方法可以逐行读取文本文件?
其次,我需要处理每一行(例如,将时间戳转换为 Date 对象,并提取有用的字段)。
如何做到这一点,最大限度地提高吞吐量?是否有某种方式不会阻止读取每一行或将其发送到 Cube?
第三 - 我猜想使用字符串拆分,JS 等价于 contains (IndexOf != -1?) 会比正则表达式快很多?有没有人在 Node.js 中解析大量文本数据方面有丰富的经验?
干杯, 维克多
【问题讨论】:
-
我在节点中构建了一个日志解析器,它接收一堆内置“捕获”的正则表达式字符串并输出到 JSON。如果您想进行计算,您甚至可以在每次捕获时调用函数。它可能会做你想做的事:npmjs.org/package/logax
标签: node.js parsing logfile-analysis