【发布时间】:2015-08-02 00:30:33
【问题描述】:
我正在尝试递归删除 HDFS 中的文件夹。就像是: fs.delete(Path, true)
但是,我尝试删除的文件夹包含大量文件。有什么方法可以快速删除文件夹吗?
我的假设是真正的递归不会遍历每个文件并批量删除文件夹,但似乎并非如此,因为我可以看到文件被一个一个删除。
请告知您的建议。我在 EMR-spark 上使用 scala 并尝试删除 S3 中的文件。
【问题讨论】:
-
和spark有什么关系?
标签: scala hadoop amazon-s3 apache-spark