【发布时间】:2015-07-18 00:41:34
【问题描述】:
我目前正在尝试使用 Apache spark 创建一个大数据处理 Web 应用程序,该应用程序已成功安装在我的 HDinsight 集群上。我过去用 C# 编写了连接到我的集群的 Mapreduce 程序,并且能够运行我通过输入我的帐户名、存储密钥等来连接到我的集群的应用程序......似乎使用 apache spark 提交作业的唯一方法是使用 RDP 连接到您的集群,但是我无法将其合并到 Web 应用程序中(很容易。我是处理集群/大数据的新手)。是否可以以与运行 mapreduce 作业时类似的方式连接到我的集群?
我也在想也许可以在 mapreduce 中编写这个,我已经在我的集群的上下文中了。这有可能以任何方式吗?
【问题讨论】:
标签: java hadoop apache-spark azure-hdinsight