一、目的

每个目录下的数据完全相同,增强可靠性

二、配置

1、停止集群

sbin/stop-yarn.sh
sbin/stop-dfs.sh

2、删除所有节点的文件

rm -rf data/ logs/

3、配置hdfs-site.xml文件

<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:///${hadoop.tmp.dir}/dfs/name1,file:///${hadoop.tmp.dir}/dfs/name2</value>
</property>

使用xsync同步

4、格式化并启动集群

hdfs namenode -format
sbin/start-yarn.sh
sbin/start-dfs.sh

 

相关文章:

  • 2021-05-27
  • 2021-11-08
  • 2022-01-06
  • 2022-12-23
  • 2022-12-23
  • 2021-04-21
  • 2021-12-16
  • 2021-07-13
猜你喜欢
  • 2021-10-26
  • 2021-07-25
  • 2021-12-17
  • 2022-12-23
  • 2021-05-17
  • 2021-08-03
  • 2021-09-01
相关资源
相似解决方案