【发布时间】:2022-01-10 12:46:48
【问题描述】:
我是 Hadoop 新手,我将配置 hadoop 集群。 Hadoop 的版本是 3.1.3。我想在hadoop102主机上设置NameNode、DataNode、NodeManager,在hadoop103主机上设置DataNode、ResourceNode、NodeManager,在hadoop104上设置SecondaryNameNode、DataNode、NodeManager
核心站点.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop102:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-3.1.3/data</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.http-address</name>
<value>hadoop102:9870</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop104:9868</value>
</property>
</configuration>
yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop103</value>
</property>
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
</configuration>
mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
工人
hadoop102
hadoop103
hadoop104
我使用命令从主机hadoop102上传测试文件
hadoop fs -put $HADOOP_HOME/wcinput/word.txt /input
为什么文件只在 hadoop102 上可用?我觉得应该把文件拷贝到本地文件系统中的hadoop103、hadoop104中。
【问题讨论】:
-
您将复制因子设置为什么?你收到错误信息了吗? [ hdfs fsck / -files -blocks -racks ] 的输出是什么
-
文件不应复制到本地文件系统中。 HDFS 复制默认只有 1。另外,我建议 Apache Ambari 正确设置分布式、已配置的 Hadoop 集群