【问题标题】:How to limit the number of concurrent processes using subprocess module in asyncio python如何在 asyncio python 中使用 subprocess 模块限制并发进程的数量
【发布时间】:2017-09-04 06:41:26
【问题描述】:
import asyncio
import asyncio.subprocess
args="blah blah argument "     
create=asyncio.create_subprocess_shell(args,stdout=asyncio.subprocess.PIPE)
proc = await create
output= await proc.stdout.read( )

这是我的服务器代码的一部分,它从客户端获得 1000 次并行命中。现在我应该如何限制服务器创建的最大子进程数以运行参数 blah blah。因为这是代码使用了我 100% 的 CPU。我需要在smae cpu上部署其他服务器

【问题讨论】:

  • 值得考虑像 Celery 和 RabbitMQ 这样的东西吗?从长远来看,它可能会给你更多的可扩展性和更好的控制。只是一个想法。
  • 客户端通过websocket连接。而且我运行的过程是 cpu 绑定的。所以我需要异步支持,这让我更喜欢 asyncio。 Celery 和 RMQ 支持这个吗?我从未使用过它们:/
  • Celery 是一个异步任务队列,而 RabbitMQ 是任务代理。这篇文章给出了一个很好的例子——suzannewang.com/celery-rabbitmq-tutorial
  • 它可能不适合您的应用程序,但如果您以前没有遇到过,值得探索。

标签: python subprocess python-asyncio


【解决方案1】:

asyncio.Semaphore 是一种限制同时作业内部计数器的方法:

sem = asyncio.Semaphore(10)

async def do_job(args):
    async with sem:  # Don't run more than 10 simultaneous jobs below
        proc = await asyncio.create_subprocess_shell(args, stdout=PIPE)
        output = await proc.stdout.read()
        return output

请注意,您应该确保作业数量不会增加太多,然后您才能实际完成它们。否则,您将需要比这更复杂的东西。

【讨论】:

    猜你喜欢
    • 2015-10-07
    • 1970-01-01
    • 2022-01-24
    • 2017-05-31
    • 1970-01-01
    • 2011-05-07
    • 2011-07-27
    • 2015-05-29
    • 1970-01-01
    相关资源
    最近更新 更多