【发布时间】:2017-03-18 09:20:48
【问题描述】:
我刚刚开始使用的 Spark 集群出现了非常奇怪的行为。
日志记录的正常行为是当运行spark-submit 时,会看到如下日志消息:
INFO 2016-11-04 13:14:10,671 org.apache.spark.executor.Executor: Finished task 227.0 in stage 4.0 (TID 3168). 1992 bytes result sent to driver
这些通常会很快填满控制台,尤其是当应用程序使用大量分区时。
但在运行 spark-submit 后,我没有看到任何来自 Spark 的常见日志消息。也许大约 5 行。相反,所有正常的日志消息都在 Spark UI 的驱动程序标准输出中。
那么问题是什么设置以及在哪里可能告诉 Spark 不要将这些日志条目返回给驱动程序?
这相当令人沮丧,因为当日志消息分散到多个位置时,很难调试应用程序。通常,我只是在运行 spark-submit 后观看日志涌入我的屏幕,然后我就能感觉到它在做什么。现在我无法获得那种感觉,因为我必须在事件发生后查看日志。
【问题讨论】:
-
用日志收集来控制单点故障听起来很冒险,你不觉得吗?
-
@LostInOverflow 我正在尝试调试应用程序。
标签: logging apache-spark apache-spark-standalone