【发布时间】:2015-04-22 17:08:19
【问题描述】:
我在伪分布式模式的单节点集群上使用 hadoop。我的系统有 16 个核心,但 hadoop 一次只运行一个 map 或 reduce 任务,因此没有充分利用所有核心。我将 conf/mapred-site.xml 更改为以下内容,但它仍然不起作用。谁能告诉我可能是什么问题及其解决方案。
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
<property>
<name>mapred.tasktracker.map.tasks.maximum</name>
<value>4</value>
</property>
<property>
<name>mapred.tasktracker.reduce.tasks.maximum</name>
<value>4</value>
</property>
<property>
<name>mapred.map.tasks</name>
<value>4</value>
</property>
<property>
<name>mapred.reduce.tasks</name>
<value>4</value>
</property>
</configuration>
【问题讨论】:
-
Hadoop 的版本?更改后您是否重新启动了 JobTracker?
-
Hadoop 版本是 2.5.2。包里的所有东西都做了,包括停止和重新启动 hadoop 的所有守护进程,但它仍然不起作用。
标签: java hadoop mapreduce bigdata