【发布时间】:2018-06-23 21:59:48
【问题描述】:
我知道这是基本的,但无法连接。
假设一个 django-server(托管在具有 3gb ram 和 1vCPU 和 nginx 的 linux 系统上)正在处理一个大约需要 1700 毫秒的请求(比如 R1)。
在 100 毫秒执行期间,请求 R2 进来。
这里,服务器已经忙于处理 R1。
那么 R2 是否必须等待 1700 毫秒 - 100 毫秒 = 1600 毫秒?
这是如何处理的?
是否有类似实例(如在 aws 中)可以解决这个问题?
【问题讨论】:
-
什么是
django-server?您使用manage.py runserver启动的那个?我的意思是 - 这一切都取决于服务器是什么。例如runserver将一次处理一个请求 -
是的..对不起,轻罪,假设它在 nginx 上运行
-
您可能想在Nginx performance 上阅读此主题。但是afaik,这与django无关。 Nginx 是处理请求的那个。 Django 已准备好开箱即用地处理并发请求
标签: django amazon-web-services nginx server architecture