【问题标题】:How can I see the aggregated logs for a Spark standalone cluster如何查看 Spark 独立集群的聚合日志
【发布时间】:2025-12-19 22:45:10
【问题描述】:

Spark 在 Yarn 上运行,我可以简单地使用 yarn -logs -applicationId appId 在 Spark 作业完成后查看聚合日志。 Spark 独立集群的等效方法是什么?

【问题讨论】:

    标签: apache-spark logging distributed-computing


    【解决方案1】:

    通过Web Interface

    Spark 的独立模式提供了一个基于 Web 的用户界面来监控 集群。 master 和每个 worker 都有自己的 web UI 显示 集群和作业统计。默认情况下,您可以访问 Web UI 主机在 8080 端口。该端口可以在 配置文件或通过命令行选项。

    此外,每个作业的详细日志输出也写入 每个从节点的工作目录(默认为 SPARK_HOME/work)。你 将看到每个作业的两个文件,stdout 和 stderr,全部输出 写到它的控制台。

    请在Monitoring and Instrumentation找到更多信息。

    【讨论】:

    • 我可以看到主用户界面,但是当我单击工作人员链接时,我无法连接到它。在 Spark 中启用它是否需要任何设置?
    • @pythonic 您是否检查过您是否可以连接到该工作人员 IP?可能您需要一条通往该工作人员的隧道才能通过链接查看 UI...