1.Spark启动警告:neither spark.yarn.jars not spark.yarn.archive is set,falling back to uploading libraries under SPARK_HOME

原因:
如果没设置spark.yarn.jars,每次提交到yarn,都会把$SPARK_HOME/jars打包成zip文件上传到HDFS对应的用户目录。而spark.yarn.jars可以指定HDFS某路径下包为公共依赖包,从而提高spark应用提交效率,节省空间

解决:
1.在HDFS创建目录 /spark/jars
2.将$SPARK_HOME/jars下所有包上传到hdfs目录 /spark/jars
3.在spark-defaults.conf 中增加配置

spark.yarn.jars hdfs://hostname/spark/jars/*
---------------------
作者:shengpli
来源:CSDN
原文:https://blog.csdn.net/qq_23146763/article/details/70843913
版权声明:本文为博主原创文章,转载请附上博文链接!

相关文章:

  • 2021-10-01
  • 2021-05-05
  • 2021-09-28
  • 2021-09-04
  • 2021-11-18
猜你喜欢
  • 2021-08-06
  • 2021-06-11
  • 2022-12-23
  • 2021-08-07
  • 2022-02-17
  • 2022-12-23
  • 2022-12-23
相关资源
相似解决方案