【发布时间】:2020-12-11 08:18:00
【问题描述】:
我有一个 dockerfile 可以在我的容器中运行我想要的一切。在这种情况下,我想运行一个 spark 代码,并在 dockerfile 中授予 spark 写入某个目录的权限。
现在,我还希望允许 spark 在 hdfs 上运行。为此,我像在其他情况下一样使用“chown -R”,但对于 HDFS,它不起作用。
FROM maven:3.6.3-jdk-8-slim
COPY ./ /test
WORKDIR /teste
RUN mvn -e install
RUN apt-get update && \
...
chown -R spark:spark /usr/spark* && \
chown -R spark:spark hdfs://localhost:8020/user/admin*
USER spark
WORKDIR /opt/spark
这样我可以在目录“/usr/spark”中写入文件,但不能在 hdfs 中。有人可以告诉我我做错了什么吗?我不能对 HDFS 做同样的事情吗?
【问题讨论】:
-
没有回答,因为这里有命令放在命令行上,我想把它放在我的 Dockerfile 文件中,以授予 spark 权限以在 HDFS 上写入/放置文件
-
它确实回答了你的情况。您的问题是您不知道该命令,它会建议该命令。
标签: java apache-spark hadoop dockerfile hdfs