【问题标题】:How to redirect log but keep existing stdout, stderr, and log4j logs?如何重定向日志但保留现有的 stdout、stderr 和 log4j 日志?
【发布时间】:2019-04-15 21:13:38
【问题描述】:

我正在添加一个新的附加程序并调用 org.apache.log4j.PropertyConfigurator.configure()。但是,这似乎覆盖了默认的数据块日志记录,我无法再从驱动程序日志或执行程序日志视图中正常查看日志。

我认为 databricks 可能使用了一些 FileAppender。请问如何在保留现有数据块的同时添加新的附加程序?

【问题讨论】:

    标签: databricks azure-databricks


    【解决方案1】:

    不要自己调用org.apache.log4j.PropertyConfigurator.configure 来扩展内置日志记录配置。相反,通过在/databricks/spark/conf/ 目录中定义一个任意命名的log4j.properties 文件来实现。 (reference) 此外,您可能需要使用初始化脚本来确保将文件添加到集群中的所有节点。

    【讨论】:

      猜你喜欢
      • 2020-03-04
      • 2022-12-07
      • 1970-01-01
      • 1970-01-01
      • 2017-05-31
      • 1970-01-01
      • 2017-03-08
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多