【问题标题】:Restore file from HDFS after namenode deletenamenode 删除后从 HDFS 恢复文件
【发布时间】:2017-06-06 07:57:50
【问题描述】:

我的 namenode 服务器这个周末被黑了,/usr/local/hadoop 目录不再存在。是否仍然可以恢复存储在 HDFS 上的文件?数据节点是可访问的,每个节点都包含层次结构中的某处 blk_{...} 数据。

【问题讨论】:

    标签: hadoop hdfs recovery


    【解决方案1】:

    如果您没有名称 dir 的任何副本/备份,则恢复数据将是一项艰巨的任务。数据节点不知道文件的任何概念,只有块。所有数据都存在于这些块中,但您必须手动从它们的块中重建文件。如果您有一些非常重要的特定文件并且总体数据不多,您可以筛选这些块以找到您要查找的内容,但我不知道有什么比这更好的。

    这就是为什么有许多方法可以冗余存储命名空间的多个副本,例如通过在dfs.namenode.name.dir 属性中指定多个目录,并使用辅助或备用名称节点(请参阅https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/HdfsUserGuide.html#Secondary_NameNode),它们充当存储命名空间副本的远程位置。

    【讨论】:

    • 感谢您的帮助@krog!如果我有名称 dir 的副本,你能告诉我该怎么做吗?我无法启动 hadoop 集群,但我可以看到名称 dir 的内容(在我的配置中,它位于 /opt/hadoop/hadoop_data/hdfs/namenode/current):edits_... 和 fsimage_... 文件。
    • @Patrick 您能否更具体地了解删除的内容? /usr/local/hadoop 的内容是什么?
    • 实际上我的服务器(在云上)被我的主机置于救援模式,因为它已被黑客入侵,但在对防火墙进行一些更改后,IT 能够以正常模式重新启动服务器。现在一切正常。再次感谢@krog 的帮助,非常感谢。
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2023-03-24
    • 2018-12-26
    • 1970-01-01
    • 2022-01-01
    • 2020-07-09
    • 2022-11-16
    • 2020-11-10
    相关资源
    最近更新 更多