【问题标题】:Multiprocessing stops working after two iterations多处理在两次迭代后停止工作
【发布时间】:2020-09-28 09:31:37
【问题描述】:

我有一个程序可以遍历给定文件夹中的所有图片并返回一个数值:

    for filename in os.listdir(image_directory):
        if filename.endswith(".jpg") or filename.endswith(".png"):
            if __name__ == '__main__':
                q = Queue()
                p = Process(target=analysis_main, args=(q,os.path.join(image_directory, filename), points_path, 
                              real_points_path,transform_path, inverse_path, lane,))
                p.start()
                dist = q.get()
                p.join()

            data.append([filename, dist])

因为在分析一张图片后会存储一些不需要的内存,所以我必须使用 修复了问题并且程序运行良好的多处理模块,但仅当我不使用队列并且仅打印从分析(dist)中获得的结果时。当我使用队列时,程序只分析两张图片然后停止,但它没有被杀死。 我现在正在解决这个问题一段时间,真的不知道该怎么办。

【问题讨论】:

  • 您确定子进程实际上将任何东西放在队列中吗?
  • 是的,因为如果我尝试在只有两张图片的文件夹上运行它可以正常工作,当它到达第三张图片时就会出现问题。

标签: python multiprocessing


【解决方案1】:

“经典”解决方案是在您排队等候时设置超时。在下面的代码块中,我使用了 3 秒超时 - 当然,这个数字可以不同。

from queue import Empty 
for file in ...:

    q = Queue()
    p = Process(target=analysis_main, args=(q, filename, ...))
    p.start()

    try:
        dist = q.get(True, 3)
        p.join()

        data.append([filename, dist])

    except Empty as e:
        print(f"didn't get anything for {filename}") 

现在,您将能够识别或跳过“坏”文件。总体而言,这是一个更好的设计,因为它还减少了您的程序由于处理功能中的错误而挂起的机会。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2013-08-20
    • 2018-04-13
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多