【问题标题】:Spark-shell command throwing errorSpark-shell 命令抛出错误
【发布时间】:2016-12-10 14:36:15
【问题描述】:

我正在尝试使用 $ spark-shell 打开 spark shell,它每次都在工作,但今天突然抛出这个错误:

错误

WARN util.Utils: Service 'SparkUI' could not bind on port 4040. Attempting port 4041.

【问题讨论】:

  • 有几种方法可以检查当前监听的端口。你试过netstat吗?
  • @cricket_007 是对的。你可以试试sudo netstat -apen
  • tcp 0 0 0.0.0.0:4040 0.0.0.0:* LISTEN 501 183535 7070/java tcp 0 0 0.0.0.0:4041 0.0.0.0:* LISTEN 501 200465 11112/java 这就是我得到的。
  • @eliasah uta 是多余的,但我会抛出一个 l 在那里收听
  • @cricket_007 谢谢!

标签: scala hadoop apache-spark cloudera


【解决方案1】:

如果你不再需要监听端口 4040 的进程,你可以终止它

fuser -k -n tcp 4040

或者如果你需要两个实例,你可以使用另一个端口启动一个新的 spark-shell

spark-shell --conf spark.ui.port=4048

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2016-10-28
    • 2017-04-06
    • 2015-12-24
    • 1970-01-01
    • 2021-07-29
    • 2022-01-24
    相关资源
    最近更新 更多