不多bb,错误如图所示:Spark启动的时候出现failed to launch: nice -n 0 /soft/spark/bin/spark-class org.apache.spark.deploy.worker
在网上搜了好多,大部分人说需要在root用户下的.bashrc配置JAVA_HOME,试过之后发现还是原来的错误;最后请教了大佬发现需要在/spark/sbin/spark-config.sh 加入JAVA_HOME的路径。 如图:

Spark启动的时候出现failed to launch: nice -n 0 /soft/spark/bin/spark-class org.apache.spark.deploy.worker

保存之后启动:

Spark启动的时候出现failed to launch: nice -n 0 /soft/spark/bin/spark-class org.apache.spark.deploy.worker

相关文章:

  • 2021-11-19
  • 2021-11-19
  • 2021-12-07
  • 2021-11-19
  • 2022-12-23
  • 2022-12-23
  • 2021-10-01
  • 2021-12-18
猜你喜欢
  • 2022-12-23
  • 2021-10-26
  • 2021-06-13
  • 2022-12-23
  • 2022-02-02
  • 2021-11-19
相关资源
相似解决方案