【发布时间】:2017-10-24 17:23:12
【问题描述】:
当我的 spark 应用程序失败时,它会在控制台中记录一条非常通用的消息。为了查看详细的消息,揭示真正的错误,我必须去 Spark History Server 并查看我的执行程序的 stdout 日志。有谁知道我如何获得更多详细信息以显示在控制台中?我一直在查看一些指向 log4j 属性文件的链接,但查看该文件我认为它已经正确设置:
# Set everything to be logged to the console
log4j.rootCategory=WARN, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n
# Settings to quiet third party logs that are too verbose
log4j.logger.org.spark-project.jetty=WARN
log4j.logger.org.spark-project.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO
log4j.logger.org.apache.parquet=ERROR
log4j.logger.parquet=ERROR
一些额外的细节:
- 我正在使用 PySpark
- 这些是 Spark SQL 产生的错误
- 我在集群模式下使用 Yarn Master 运行
【问题讨论】:
标签: apache-spark pyspark apache-spark-sql