1.Slave节点要存储数据,所以它的磁盘越大越好。错误
分析:一旦Slave节点宕机,数据恢复是一个难题

2.hadoop dfsadmin –report 命令用于检测 HDFS 损坏块。错误
分析:hadoop dfsadmin -report 用这个命令可以快速定位出哪些节点down掉了,HDFS的容量以及使用了多少,以及每个节点的硬盘使用情况。

3.Hadoop环境变量中的 HADOOP_HEAPSIZE 用于设置所有 Hadoop 守护线程的内存。它默认是 200 GB。错误
分析:hadoop为各个守护进程(NN,DN,SNN等)统一分配的内存在hadoop-env.sh中设置,参数为HADOOP_HEAPSIZE,默认为1000M。

相关文章:

  • 2022-03-06
  • 2021-12-19
  • 2021-09-22
  • 2021-10-19
  • 2021-06-15
  • 2021-11-15
猜你喜欢
  • 2021-10-23
  • 2021-11-28
  • 2021-05-21
  • 2021-04-13
  • 2021-11-03
  • 2021-09-12
相关资源
相似解决方案