不幸的是,没有直接的方法可以将文件/文件夹从一个工作区导出和导入到另一个工作区。
注意:强烈建议:不要将任何生产数据存储在默认 DBFS 文件夹中
如何将文件/文件夹从一个工作区复制到另一个工作区?
您需要从一个工作区手动下载文件/文件夹,并将文件/文件夹上传到另一个工作区。
最简单的方法是使用 DBFS Explorer:
点击此链接查看:https://imgur.com/aUUGPXR
从 DBFS 下载文件/文件夹到本地机器:
方法 1:使用 Databricks CLI
DBFS 命令行界面 (CLI) 使用 DBFS API 向 DBFS 公开易于使用的命令行界面。使用此客户端,您可以使用类似于在 Unix 命令行上使用的命令与 DBFS 进行交互。例如:
# List files in DBFS
dbfs ls
# Put local file ./apple.txt to dbfs:/apple.txt
dbfs cp ./apple.txt dbfs:/apple.txt
# Get dbfs:/apple.txt and save to local file ./apple.txt
dbfs cp dbfs:/apple.txt ./apple.txt
# Recursively put local dir ./banana to dbfs:/banana
dbfs cp -r ./banana dbfs:/banana
参考:Installing and configuring Azure Databricks CLI 和 Azure Databricks – Access DBFS
方法二:使用名为 DBFS Explorer 的第三方工具
DBFS Explorer 是作为一种将文件上传和下载到 Databricks 文件系统 (DBFS) 的快速方法而创建的。这将适用于 Databricks 的 AWS 和 Azure 实例。您需要在 Web 界面中创建一个不记名令牌才能连接。
将文件/文件夹从本地机器上传到 DBFS:
有多种方法可以将文件从本地计算机上传到 Azure Databricks DBFS 文件夹。
方法 1:使用 Azure Databricks 门户。
方法 2:使用 Databricks CLI
DBFS 命令行界面 (CLI) 使用 DBFS API 向 DBFS 公开易于使用的命令行界面。使用此客户端,您可以使用类似于在 Unix 命令行上使用的命令与 DBFS 进行交互。例如:
# List files in DBFS
dbfs ls
# Put local file ./apple.txt to dbfs:/apple.txt
dbfs cp ./apple.txt dbfs:/apple.txt
# Get dbfs:/apple.txt and save to local file ./apple.txt
dbfs cp dbfs:/apple.txt ./apple.txt
# Recursively put local dir ./banana to dbfs:/banana
dbfs cp -r ./banana dbfs:/banana
方法3:使用名为DBFS Explorer的第三方工具
DBFS Explorer 是一种将文件上传和下载到 Databricks 文件系统 (DBFS) 的快捷方式。这将适用于 Databricks 的 AWS 和 Azure 实例。您需要在 Web 界面中创建一个不记名令牌才能连接。
第一步:下载安装DBFS Explorer并安装。
Step2:打开 DBFS Explorer 并输入:Databricks URL 和 Personal Access Token
第三步:从本机选择你要上传文件的文件夹,拖放到要上传的文件夹中,点击上传即可。