【问题标题】:spark-submit not getting resources as submmited?spark-submit 没有收到提交的资源?
【发布时间】:2019-02-12 07:55:38
【问题描述】:
  1. 总结:我正在使用spark-submit 将我的应用程序提交到我的 Spark 集群,但分配给我的应用程序的资源与我指定的参数不一致。
  2. 详情:我总是得到 4 个容器、16 个内核和 74752MB RAM(大约 73G)。当我将client 模式更改为cluster 时,我得到的只是更少,例如9 个容器 9 个内核和 45056MB RAM(大约 44GB)。我在显示应用程序信息的cluster:8088 页面上找到了这些信息。我还交叉引用了 spark:4044 的 executors 选项卡,其中显示了 spark 应用程序的 executors 信息。
  3. 下面是我使用的代码 sn-p: spark-submit --master yarn --deploy-mode client --class "$1" target/scala-2.10/recommend-assembly-0.1.jar --executor-cores 8 --num-executor 15 --driver-memory 19g
  4. 环境信息:Spark1.6 on yarn,Hadoop2.6。一个由 4 个节点组成的集群(1 个是主节点),每个节点都有 16 核 CPU 和 64GB RAM(尽管我的节点不知何故只能访问 40GB RAM)。
  5. 我尝试了什么:
    1. 我尝试修改上述参数(例如 num-executor),我仍然获得相同数量的资源。但是当我把client改成cluster时,分配的资源就更少了。
    2. 我怀疑某些纱线设置会导致此问题。我找到了Apache Hadoop Yarn - Underutilization of cores,但是,在我更改capacity-scheduler.xml 中的设置后它并没有帮助。

【问题讨论】:

    标签: apache-spark spark-submit


    【解决方案1】:

    我认为你应该了解有关纱线火花的知识,包括容器、舞台、AM 等

    【讨论】:

    • 其实我已经阅读并搜索了很多资料。我想我太笨了,无法弄清楚这个问题。
    猜你喜欢
    • 1970-01-01
    • 2021-09-20
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2016-09-09
    • 1970-01-01
    • 2016-07-05
    • 2017-08-26
    相关资源
    最近更新 更多