【问题标题】:How to redirect log but keep existing stdout, stderr, and log4j logs?如何重定向日志但保留现有的 stdout、stderr 和 log4j 日志?
【发布时间】:2019-04-15 21:13:38
【问题描述】:
我正在添加一个新的附加程序并调用 org.apache.log4j.PropertyConfigurator.configure()。但是,这似乎覆盖了默认的数据块日志记录,我无法再从驱动程序日志或执行程序日志视图中正常查看日志。
我认为 databricks 可能使用了一些 FileAppender。请问如何在保留现有数据块的同时添加新的附加程序?
【问题讨论】:
标签:
databricks
azure-databricks
【解决方案1】:
不要自己调用org.apache.log4j.PropertyConfigurator.configure 来扩展内置日志记录配置。相反,通过在/databricks/spark/conf/ 目录中定义一个任意命名的log4j.properties 文件来实现。 (reference) 此外,您可能需要使用初始化脚本来确保将文件添加到集群中的所有节点。