【发布时间】:2016-11-09 06:21:00
【问题描述】:
我正在通过 spark-submit 运行 spark 作业,并使用其 --files 参数加载 log4j.properties 文件。
在我的 Spark 作业中,我需要获取此参数
object LoggerSparkUsage {
def main(args: Array[String]): Unit = {
//DriverHolder.log.info("unspark")
println("args are....."+args.mkString(" "))
val conf = new SparkConf().setAppName("Simple_Application")//.setMaster("local[4]")
val sc = new SparkContext(conf)
// conf.getExecutorEnv.
val count = sc.parallelize(Array(1, 2, 3)).count()
println("these are files"+conf.get("files"))
LoggerDriver.log.info("log1 for info..")
LoggerDriver.log.info("log2 for infor..")
f2
}
def f2{LoggerDriver.log.info("logs from another function..")}
}
我的 spark 提交是这样的: /opt/mapr/spark/spark-1.6.1/bin/spark-submit --class "LoggerSparkUsage" --master yarn-client --files src/main/resources/log4j.properties /mapr/cellos-mapr/user /mbazarganigilani/SprkHbase/target/scala-2.10/sprkhbase_2.10-1.0.2.jar
我尝试使用 conf.get("文件")
但它给了我一个例外
谁能给我一个解决方案?
【问题讨论】:
标签: apache-spark log4j