【问题标题】:parallel execution of inference of deep learning model which are divided into parts并行执行深度学习模型的推理,分为几个部分
【发布时间】:2021-04-12 04:07:43
【问题描述】:

在这里,我有一个训练深度神经网络(图像分类 n/w)的场景,比如 8 层。
训练后,我将模型分成 4 个部分,每个模型部分有 2 层。

现在我想对我的测试图像进​​行推断,从技术上讲,通过的图像将穿过每个块以产生最终输出,这将是串行处理。 即
total_time = time_taken_by_model_1 + time_taken_by_model_2 + time_taken_by_model_3 + time_taken_by_model_4 如下图所示的一些东西

所以我的问题是,代替这种串行计算,我可以并行化推理计算,使得所花费的时间应该少于上述 total_time 的序列化推理(至少是上述情况的总时间的一半) 任何有关这些问题的链接/论文/博客也会有所帮助

编辑:所有模型部件将在不同的设备上(树莓派)

【问题讨论】:

    标签: tensorflow deep-learning parallel-processing neural-network pytorch


    【解决方案1】:

    你应该看看pipelining a parallel model
    对于单个示例,您无法节省时间,但如果您有许多样本要分类,则可以从流水线中受益。

    【讨论】:

    • 感谢您的回复..@Shai,我已经添加了编辑块...帮助将apprciated
    猜你喜欢
    • 1970-01-01
    • 2022-01-17
    • 1970-01-01
    • 2017-05-20
    • 2023-03-19
    • 2016-09-02
    • 2020-10-26
    • 2020-11-27
    • 2020-10-04
    相关资源
    最近更新 更多