【问题标题】:Working of Amazon WS elastic load balancerAmazon AWS 弹性负载均衡器的工作
【发布时间】:2014-01-24 07:17:52
【问题描述】:

我有兴趣了解 ELB 的工作原理。我有一个客户端向服务器发送 CPU 密集型请求。转发到服务器的所有请求都通过 AWS ELB。我已经为服务器创建了一个自动缩放组,其扩展策略的平均 CPU 利用率阈值为 80%。

例如,客户端将通过 ELB 仅发送 5 个请求。转发到服务器的第一个请求,其 CPU 利用率达到 100%。现在,对于第二个请求,如果我没记错的话,会创建一个新实例。这个新实例需要一些时间来初始化并开始处理,以便其 CPU 利用率达到 100%。这意味着我必须在转发到 ELB 的两个连续请求之间放置一些大于实例初始化时间的人为延迟,以便让一个服务器实例处理每个请求?如果我错了,请纠正我?在这种情况下应该添加什么最佳延迟?

另外,是 CPU Util。整个 Auto Scaling 组或一个实例的阈值平均值?我的扩大政策有效吗?

期望的结果是每个服务器实例处理一个并且所有服务器并行运行。我这样做是为了使用弹性来加快整体处理时间。

感谢期待

【问题讨论】:

    标签: amazon-web-services amazon-ec2 cloud autoscaling amazon-elb


    【解决方案1】:

    使用负载均衡器,您必须考虑启动和实例化的时间。它可能会使您的解决方案比需要的复杂一些。相反,您可能需要考虑以下事项。

    您有一个接收请求的实例。如果不是很多请求,它甚至可能是一个微实例。然后,此实例将在 SQS 中创建作业。 (您可以使用其他消息队列系统,但 SQS 指标可用于自动缩放)。

    您的工作实例将从 SQS 获取消息,然后对其进行处理。您可以将结果保存到 s3 或数据库,具体取决于最适合您的方案(您可能能够将结果传递给客户端提供的回调)。

    【讨论】:

      猜你喜欢
      • 2017-09-30
      • 2014-05-15
      • 1970-01-01
      • 2013-07-19
      • 2021-05-27
      • 2018-05-02
      • 1970-01-01
      • 2014-07-18
      • 2013-03-22
      相关资源
      最近更新 更多