【问题标题】:Azure Blob storage and HDF file storageAzure Blob 存储和 HDF 文件存储
【发布时间】:2012-12-21 19:12:51
【问题描述】:

我正在开发云服务器,我需要使用 blob 存储来存储 HDF 文件 (http://www.hdfgroup.org/HDF5/)。

与创建、读取写入和修改文件中的数据元素相关的功能来自 HDF API。

我需要获取文件路径来创建文件或读取或写入文件。

谁能告诉我如何在 Azure Blob 上创建自定义文件?

我需要能够使用如下所示的 API,但将 Azure 存储路径传递给文件。 http://davis.lbl.gov/Manuals/HDF5-1.4.3/Tutor/examples/C/h5_crtfile.c

我尝试创建的这些文件可能会变得非常大~10-20GB,因此在本地下载并修改它们对我来说不是一个选择。

谢谢

杀食

【问题讨论】:

    标签: azure blob hdf5


    【解决方案1】:

    一种可能的方法(诚然充满挑战)是使用您包含的代码在临时位置创建文件,然后使用 Azure API 将文件作为文件输入流上传到 Azure。我正在研究如何在 Azure 存储中处理大小限制,所以我不能说是否可以在一次上传操作中移动整个 10-20GB 文件,但由于 Azure API 从输入流中读取,所以你应该能够创建操作组合,从而将您需要的信息驻留在 Azure 存储中。

    【讨论】:

      【解决方案2】:

      谁能告诉我如何在 Azure Blob 上创建自定义文件?

      我需要能够使用如下所示的 API,但通过 文件的 Azure 存储路径。 http://davis.lbl.gov/Manuals/HDF5-1.4.3/Tutor/examples/C/h5_crtfile.c

      Windows Azure Blob 存储是一种用于存储大量非结构化数据的服务,这些数据可以通过 HTTPHTTPS 访问。所以从应用程序的角度来看,Azure Blob 不能像普通磁盘一样工作。

      Microsoft 提供了相当不错的 API (c#, Java) 来处理 blob 存储。它们还提供 Blob 服务 REST API 以从任何其他语言访问 blob(其中没有像 C++ 那样提供特定的 blob 存储 API)。

      单个块 blob 最大可达 200GB,因此它应该可以轻松存储大约 10-20GB 大小的文件。

      恐怕提供的示例不适用于 Windows Azure Blob。但是,我不知道HDF文件存储;也许他们提供了一些 Azure Blob 存储支持。

      【讨论】:

        猜你喜欢
        • 2012-05-20
        • 2017-08-18
        • 2021-07-09
        • 2016-06-16
        • 2018-02-12
        • 2021-11-19
        • 2011-12-23
        • 1970-01-01
        • 2016-09-12
        相关资源
        最近更新 更多