【问题标题】:Massive text file to be read into R要读入 R 的海量文本文件
【发布时间】:2023-03-14 09:29:01
【问题描述】:

所以故事是我有一个需要读入 R 的 30 gig txt 文件,它包含两个列和大约 20 亿行整数!我不想一次加载整个东西,相当大的块就足够了。

我尝试使用带有参数的 read.table,例如 nrow = 10000000 和 skip = "stupidly_large_number"

但是当我深入文件时出现以下错误

Error in readLines(file, skip):
    cannot allocate vector of length 1800000000

请帮助我获取数据并提前致谢!

【问题讨论】:

    标签: bigdata read.table


    【解决方案1】:

    在我看来,您可能需要先将文本文件拆分为可管理的块,然后再尝试处理它们。 unix split 命令应该可以解决问题,但我不知道您是否在存在该命令的平台上。

    【讨论】:

    • 它们会和我在 Windows 操作系统上做的类似吗?
    • 其实只是安装了cygdrive并使用了split命令,干杯!
    猜你喜欢
    • 2017-04-25
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2014-01-07
    相关资源
    最近更新 更多