【发布时间】:2023-04-08 23:21:02
【问题描述】:
作为我正在进行的项目的一部分,我想清理我生成的重复行条目的文件。然而,这些重复通常不会彼此靠近。我想出了一种在 Java 中这样做的方法(基本上是复制文件,然后使用嵌套的 while 语句将一个文件中的每一行与另一个文件中的每一行进行比较)。问题是我生成的文件非常大并且文本很重(大约 225k 行文本,大约 40 兆)。我估计我目前的流程需要 63 个小时!这绝对不能接受。
不过,我需要一个集成的解决方案。最好用Java。有任何想法吗?谢谢!
【问题讨论】:
-
9 个答案并且没有投票?这是一个完全有效且表述良好的问题
标签: java file text file-io duplicates