【问题标题】:How do I restart hadoop services on dataproc cluster如何在 dataproc 集群上重新启动 hadoop 服务
【发布时间】:2017-08-28 20:24:25
【问题描述】:

我可能使用错误的术语进行搜索,但谷歌并没有告诉我如何执行此操作。问题是如何在更改某些配置文件(纱线属性等)后重新启动 Dataproc 上的 hadoop 服务?

必须在整个集群中按特定顺序重新启动服务。必须有脚本或工具,希望在 Dataproc 安装中,我可以调用它们来重新启动集群。

【问题讨论】:

    标签: hadoop hadoop-yarn google-cloud-dataproc


    【解决方案1】:

    配置属性是一个常见且得到很好支持的用例。

    您可以通过cluster properties 执行此操作,无需重启守护程序。示例:

    dataproc clusters create my-cluster --properties yarn:yarn.resourcemanager.client.thread-count=100

    如果您正在执行更高级的操作,例如更新服务日志级别,那么您可以使用systemctl 重新启动服务。

    首先 ssh 到集群节点并输入 systemctl 以查看可用服务列表。例如重启HDFS NameNode 输入sudo systemctl restart hadoop-hdfs-namenode.service

    如果这是初始化操作的一部分,则不需要 sudo

    【讨论】:

      【解决方案2】:

      在主节点上:

      sudo systemctl restart hadoop-yarn-resourcemanager.service
      sudo systemctl restart hadoop-hdfs-namenode.service
      

      在工作节点上:

      sudo systemctl restart hadoop-yarn-nodemanager.service
      sudo systemctl restart hadoop-hdfs-datanode.service
      

      之后,您可以使用systemctl status <name>查看服务状态,也可以查看/var/log/hadoop中的日志。

      【讨论】:

        猜你喜欢
        • 1970-01-01
        • 2013-05-07
        • 1970-01-01
        • 2018-11-23
        • 1970-01-01
        • 1970-01-01
        • 2015-12-21
        • 1970-01-01
        • 1970-01-01
        相关资源
        最近更新 更多