【发布时间】:2015-03-06 21:56:45
【问题描述】:
我有一个用 Java 编写的 MapReduce 作业。它取决于多个类。我想在 Spark 上运行 MapReduce 作业。
我应该遵循哪些步骤来做同样的事情?
我只需要对 MapReduce 类进行更改吗?
谢谢!
【问题讨论】:
-
首先阅读这篇博文:blog.cloudera.com/blog/2014/09/…
-
谢谢@JeremyBeard。那是我开始写这篇文章时读到的第一篇文章。我更新了我的问题。任何帮助将不胜感激。
标签: java hadoop mapreduce apache-spark