【发布时间】:2019-12-23 21:09:42
【问题描述】:
试图通过databricks流数据帧将数据写入SQl DW。进程正在尝试删除 BLOB 存储中的临时文件夹并在下面抛出。在文档中,我看到该过程不会自动清理 tempdir。这是真的吗?如果为真,那么为什么会出现此错误?在 python 中使用以下查询
df1.writeStream
.format("com.databricks.spark.sqldw")
.option("url", sqlDwUrlSmall)
.option("tempDir", tempDir)
.option("forwardSparkAzureStorageCredentials", "true")
.option("dbTable", "SampleTable")
.option("checkpointLocation", "/tmp_checkpoint_location1")
.option("numStreamingTempDirsToKeep", -1)
.start()
错误 AzureNativeFileSystemStore:在 Blob 上遇到删除存储异常:https://savupputest1.blob.core.windows.net/container1/tempDirs/2019-12-20/21-27-29-347/adca2ed6-a705-4274-8c24-0f0e3d7c64a7/batch0,异常详细信息:不允许在非空目录上执行此操作。错误代码:DirectoryIsNotEmpty 20 年 19 月 12 日 21:27:32 错误 AzureNativeFileSystemStore:尝试删除密钥 tempDirs/2019-12-20/21-27-29-347/adca2ed6-a705-4274-8c24-0f0e3d7c64a7/batch0 时失败
【问题讨论】:
标签: azure-databricks azure-sql-data-warehouse