【问题标题】:Can you run an Java-Spark application (desktop) in a multi-cluster node您可以在多集群节点中运行 Java-Spark 应用程序(桌面)吗
【发布时间】:2020-12-24 17:10:15
【问题描述】:

我已经用 Java 实现了一个脚本来使用 Apache Spark 处理和转换数据。我想在多台机器(多集群节点)上运行这个脚本,但我找不到任何关于如何为 Java 脚本执行此操作的文档。所以我想知道这里是否有人因为找不到任何文档而尝试过?如果不可能,那么除了将代码从 Java 更改为 Scala 之外,还有什么替代方法?

谢谢!

【问题讨论】:

    标签: java scala apache-spark cluster-computing


    【解决方案1】:

    如果您使用 spark 库(RDD 和其他东西)编写了脚本,则只需将脚本发送到 spark 集群。

    并且spark会自己分担slave之间的执行。

    如果您的问题是如何在集群上启动 Spark 应用程序或如何配置集群,请查看 Spark documentation

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2017-05-28
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2021-01-23
      • 2020-12-06
      相关资源
      最近更新 更多