【问题标题】:Server install hdfs client fail服务器安装 hdfs 客户端失败
【发布时间】:2015-10-15 21:55:30
【问题描述】:

我在 Ambari 上安装 HDFS 客户端时遇到以下错误。已经多次重置服务器,但仍然无法解决。知道如何解决这个问题吗?

标准错误:

Traceback (most recent call last):
  File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/hdfs_client.py", line 120, in <module>
    HdfsClient().execute()
 File "/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py", line 219, in execute
    method(env)
 File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/hdfs_client.py", line 36, in install
    self.configure(env)
 File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/hdfs_client.py", line 41, in configure
    hdfs()
 File "/usr/lib/python2.6/site-packages/ambari_commons/os_family_impl.py", line 89, in thunk
    return fn(*args, **kwargs)
 File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/hdfs.py", line 61, in hdfs
    group=params.user_group
 File "/usr/lib/python2.6/site-packages/resource_management/core/base.py", line 154, in __init__
    self.env.run()
 File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 152, in run
    self.run_action(resource, action)
 File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 118, in run_action
    provider_action()
 File "/usr/lib/python2.6/site-packages/resource_management/libraries/providers/xml_config.py", line 67, in action_create
    encoding = self.resource.encoding
 File "/usr/lib/python2.6/site-packages/resource_management/core/base.py", line 154, in __init__
    self.env.run()
 File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 152, in run
    self.run_action(resource, action)
 File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 118, in run_action
    provider_action()
 File "/usr/lib/python2.6/site-packages/resource_management/core/providers/system.py", line 87, in action_create
    raise Fail("Applying %s failed, parent directory %s doesn't exist" % (self.resource, dirname))
resource_management.core.exceptions.Fail: Applying File['/usr/hdp/current/hadoop-client/conf/hadoop-policy.xml'] failed, parent directory /usr/hdp/current/hadoop-client/conf doesn't exist

【问题讨论】:

  • 你应该使用 HDP 2.3.2 和 Ambari 2.1
  • @adouang,ambari服务器版本2.1.2,hdp栈2.3

标签: hadoop hdfs hortonworks-data-platform ambari


【解决方案1】:

这是一个链接到 /etc/hadoop/conf

的软链接

我跑

python /usr/lib/python2.6/site-packages/ambari_agent/HostCleanup.py --silent --skip=users

运行后会删除/etc/hadoop/conf

但是,重新安装不会重新创建它。

因此您可能必须自己创建所有 conf 文件。 希望有人可以修补它。

【讨论】:

    【解决方案2】:
    yum -y erase hdp-select
    

    如果您已多次安装,可能无法清理某些软件包。

    要删除所有 HDP 包并开始全新安装,请删除 hdp-select。

    如果这没有帮助,请从/usr/hdp 中删除所有版本,如果该目录包含多个版本的hdp,请删除此目录

    删除所有已安装的包,如hadoop,hdfs,zookeeper etc.

    yum remove zookeeper* hadoop* hdp* zookeeper*
    

    【讨论】:

    • Just yum -y erase hdp-select 为我修复了故障节点。
    【解决方案3】:

    我遇到了同样的问题:我在 Centos 7 上使用的是 HDP 2.3.2。

    第一个问题: 一些 conf 文件指向 /etc//conf 目录(与它们应该的相同) 但是,/etc//conf 指向另一个 conf 目录,导致无限循环。

    我能够通过删除 /etc//conf 符号链接并创建目录来解决此问题

    第二个问题 但是,如果您运行 python 脚本来清理安装并重新开始,则不会重新创建几个目录,例如 hadoop-client 目录。这会导致准确的错误消息。此外,此清理脚本效果不佳,因为它不会清理多个用户和目录。你必须 userdel 和 groupdel。

    更新: 看来这是 HDP 2.3.2 的问题。在 HDP 2.3.4 中,我不再遇到这个问题。

    【讨论】:

      【解决方案4】:

      在失败的主机上创建/usr/hdp/current/hadoop-client/conf 应该可以解决问题。

      【讨论】:

      • 这实际上不会造成混乱,甚至可能无法解决。所有配置都应该在 /etc 下的子文件夹中。所以删除 /etc/hadoop/conf(这是一个链接回 /user/hdp/current/hadoop-client/conf 的符号链接)并重新创建 conf 目录是另一种解决方法(尽管仍然很脏)
      • 这对我不起作用,我最终从全新的操作系统安装开始
      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2020-06-16
      • 2016-09-23
      相关资源
      最近更新 更多