【发布时间】:2016-01-04 21:50:23
【问题描述】:
我阅读了很多关于 Hadoop 的文档和信息,但不知道如何实现这个简单的工作流程:
- 我想在我的工作机器上使用 Hadoop Java API开发和编译 Hadoop MapReduce,并安装所有 IDE 等。
- 我想以最简单的方式部署并在 Hadoop 集群上运行 MapReduce 作业(最好使用 IDE)
- 我希望能够将这些 MapReduce 作业集成到外部应用程序中,并能够透明地运行它们。
看起来所有的开发/编译/运行都应该在存在 bin/hadoop 命令行实用程序和 Hadoop 库的 MasterNode 上完成。我说的对吗?
开发、运行和部署 MapReduce 应用程序的一般方法是什么?是否有某种 Maven 插件可以将所有 Hadoop 依赖项集成到您的项目中?
【问题讨论】:
-
你好,这是一个有点笼统的问题,只是为了让你开始看看这篇 [文章] (hadoopi.wordpress.com/2013/05/25/…) 有帮助吗?根据 hadoop 的版本,有些人可能会说最常用的依赖项是 hadoop-client 参见here
标签: java maven hadoop mapreduce cloudera