【问题标题】:HDP on Google Cloud Platform谷歌云平台上的 HDP
【发布时间】:2025-11-25 12:30:01
【问题描述】:

我创建了一个包含 6 个节点集群的 dataproc 集群,当我想安装 bdutil 时遇到以下问题:

******************* gcloud compute stderr *******************
ERROR: (gcloud.compute.disks.create) Could not fetch resource:
 - Insufficient Permission
ERROR: (gcloud.compute.disks.create) Could not fetch resource:
 - Insufficient Permission
ERROR: (gcloud.compute.disks.create) Could not fetch resource:
 - Insufficient Permission
ERROR: (gcloud.compute.disks.create) Could not fetch resource:
 - Insufficient Permission
ERROR: (gcloud.compute.disks.create) Could not fetch resource:
 - Insufficient Permission
************ ERROR logs from gcloud compute stderr ************
ERROR: (gcloud.compute.disks.create) Could not fetch resource:
ERROR: (gcloud.compute.disks.create) Could not fetch resource:
ERROR: (gcloud.compute.disks.create) Could not fetch resource:
ERROR: (gcloud.compute.disks.create) Could not fetch resource:
ERROR: (gcloud.compute.disks.create) Could not fetch resource:
******************* Exit codes and VM logs *******************
Sun Sep 23 23:54:02 UTC 2018: Exited 1 : gcloud --project=hdpgcp-217320 --quiet --verbosity=info compute disks create --size=1500 --type=pd-standard hadoop-w-0-pd --zone=zone(
unset)
Sun Sep 23 23:54:02 UTC 2018: Exited 1 : gcloud --project=hdpgcp-217320 --quiet --verbosity=info compute disks create --size=1500 --type=pd-standard hadoop-w-1-pd --zone=zone(
unset)
Sun Sep 23 23:54:02 UTC 2018: Exited 1 : gcloud --project=hdpgcp-217320 --quiet --verbosity=info compute disks create --size=1500 --type=pd-standard hadoop-w-2-pd --zone=zone(
unset)
Sun Sep 23 23:54:02 UTC 2018: Exited 1 : gcloud --project=hdpgcp-217320 --quiet --verbosity=info compute disks create --size=1500 --type=pd-standard hadoop-w-3-pd --zone=zone(
unset)
Sun Sep 23 23:54:02 UTC 2018: Exited 1 : gcloud --project=hdpgcp-217320 --quiet --verbosity=info compute disks create --size=1500 --type=pd-standard hadoop-m-pd --zone=zone(un
set)

【问题讨论】:

  • 但是你想做什么?请发布您的代码,否则我们无法确定错误发生的位置。
  • 我正在谷歌云上安装 ambari,我遵循以下文档 hortonworks.com/blog/hdp-google-cloud-platform,当我尝试部署 ambari 时,我遇到了上述问题。代码是 ./bdutil -e ambari deploy

标签: google-cloud-platform cloud gcloud hortonworks-data-platform


【解决方案1】:

HDP 和 Dataproc 是不同的产品。我的意思是您无需创建 Dataproc 集群即可执行 bdutil。从单个实例执行它就足够了,因为所有必需的配置都在 bdutil_env.sh/ambari.conf 中设置。工具 bdutil 不会创建任何 Dataproc 集群,而是创建自定义 vm 实例来托管 HDP。

以下是一些没有很好记录的步骤:

  1. 我设置了GOOGLE_APPLICATION_CREDENTIALS 变量并且权限问题消失了。这很可能是您面临的问题。 1.1如果不行,执行这个命令:gcloud auth activate-service-account --key-file=/PATH/JSON_CREDENTIALS

  2. 如果出现其他错误,如“无效值区域(未设置)”,只需在 bdutil_env.sh 中设置它们
    2.1 如果仍然存在相同的错误,请直接进入platforms/hdp/ambari.conf 更新您的配置。

  3. 您需要设置允许的防火墙规则来访问您的实例,以允许节点之间的通信以及您访问主服务器中的 Ambari。

完成上述步骤后,我可以使用 Ambari 安装 HDP。

【讨论】: