【问题标题】:Faster way to split way big file in to smaller files?将大文件拆分为小文件的更快方法?
【发布时间】:2017-06-22 14:58:08
【问题描述】:

我有一个大约 6.5 GB 的小文件,我尝试使用 split -d -line--bytes=5MB 将其拆分为大小为 5MB 的文件。我花了 6 多分钟来拆分这个文件。 我有超过 1TB 的文件。 有没有更快的方法来做到这一点?

【问题讨论】:

  • 问题是:速度决定方面是什么?那可能是磁盘驱动器吗?如果是这样,那么答案是:获得更快的磁盘...
  • 标签batch-file是Windows相关的,所以请重新考虑你应用的标签!

标签: linux shell file scripting


【解决方案1】:

比专门设计用于完成此类工作的工具更快?在一般情况下听起来不太可能。但是,您可以做一些事情:

  • 将输出文件保存到不同的物理存储单元。这样可以避免同时在同一个磁盘上读取和写入数据,从而实现更多的不间断处理。
  • 如果记录大小是静态的,您可以使用--bytes 来避免处理整行的处理开销。

【讨论】:

  • 谢谢!但我需要完整的行,以便在 csv 的情况下不会插入单词或行
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 2016-03-29
  • 1970-01-01
  • 2019-04-30
  • 2021-06-23
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
相关资源
最近更新 更多