【问题标题】:Data Importing using Azure Web Jobs to Azure SQL使用 Azure Web 作业将数据导入 Azure SQL
【发布时间】:2016-07-15 22:42:13
【问题描述】:

只是在寻找有关通过计划的 Web 作业处理数据导入的最佳方法的一些建议。 我有 8 个 json 文件,每 5 小时通过 FTP 客户端使用 JSON 序列化程序导入内存,然后使用 EF6 处理这些 JSON 对象并将其插入 Azure SQL。每个文件都在一个循环中按顺序处理,因为我想确保所有数据都正确插入,就像我尝试使用 Parallel ForEach 时一样,一些数据没有被插入到相关表中。因此,如果 WebJob 失败,我知道有一个错误,我们可以再次运行,问题是现在需要很长时间才能完成,因为我们有很多数据,接近 2 小时 - 每个文件有 500 个位置,每个位置有 11 个天和 24 小时数据。

任何人都知道如何更快地执行此操作,同时确保始终正确插入数据或处理任何错误。正在考虑使用存储队列,但我们将来可能需要指向其他数据库,或者我可以每个文件使用 1 个 Web 作业,因此每 5 小时为每个文件安排 8 个 Web 作业,因为我认为数量有限制我每天可以运行的网络作业数。

或者是否有另一种方法可以将数据导入到 Azure SQL 中,并且可以安排。

【问题讨论】:

    标签: json azure data-import webjob


    【解决方案1】:

    Azure Web Jobs (via the Web Jobs SDK) 可以监控和处理 BLOB。无需创建计划作业。 SDK 可以监视新的 BLOB 并在创建它们时对其进行处理。您可以将处理分解为较小的文件,并在创建它们时加载它们。

    Azure 流分析具有类似的功能。

    【讨论】:

    • 好的 - 会看一下,流分析似乎有点过分了,除非我错了,否则基本上将批量导入到 SqlAzure 中。
    猜你喜欢
    • 2018-03-09
    • 2017-11-29
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2023-03-23
    • 1970-01-01
    • 2023-03-27
    相关资源
    最近更新 更多