【问题标题】:Quick recursive folder deletion in HadoopHadoop中的快速递归文件夹删除
【发布时间】:2015-08-02 00:30:33
【问题描述】:

我正在尝试递归删除 HDFS 中的文件夹。就像是: fs.delete(Path, true)

但是,我尝试删除的文件夹包含大量文件。有什么方法可以快速删除文件夹吗?

我的假设是真正的递归不会遍历每个文件并批量删除文件夹,但似乎并非如此,因为我可以看到文件被一个一个删除。

请告知您的建议。我在 EMR-spark 上使用 scala 并尝试删除 S3 中的文件。

【问题讨论】:

  • 和spark有什么关系?

标签: scala hadoop amazon-s3 apache-spark


【解决方案1】:

使用 java 库。 Scala 完全兼容它。

val fs = FileSystem.get(getConf())
fs.delete(new Path("path/to/file"), true) // delete file, true for recursive 

复制自here

【讨论】:

    猜你喜欢
    • 2014-09-24
    • 1970-01-01
    • 2012-10-18
    • 1970-01-01
    • 1970-01-01
    • 2020-01-25
    • 2014-06-21
    • 2012-11-19
    • 2013-05-23
    相关资源
    最近更新 更多