这应该是多次格式化节点,或者集群不按照正常程序关机开启导致的错误,导致namenode clusterID和datanode clusterID前后不一致
spark运行时候datanode无故消失

解决方案:
(1)在hadoop文件加下sbin/stop-all.sh
(2)检查jps没有集群线程在运行了
(3)找到 Hadoop文件加下/dfs/data
(4)删除data文件夹下的临时文件current等
(5)重新格式化集群hadoop namenode -format
(6)启动所有节点/hadoop/sbin/start-all.sh,jps一下,发现datanode又出现了

相关文章:

  • 2022-12-23
  • 2021-04-22
  • 2022-01-11
  • 2021-07-05
  • 2021-08-03
  • 2021-06-26
  • 2021-08-25
  • 2022-12-23
猜你喜欢
  • 2021-04-05
  • 2021-08-21
  • 2022-01-10
  • 2022-12-23
  • 2021-06-08
  • 2022-12-23
相关资源
相似解决方案