【发布时间】:2022-02-02 20:45:39
【问题描述】:
我在 Cloud Run 上部署了一个 API,其中每个请求都会导致对 Cloud Datastore 的读取和写入。大量请求是第一个计时器(从 Datastore 读取将返回 null),因此在其前面添加缓存可能没有太大帮助。
在过去一个月中,调用 Datastore 并获取数据 (data = client.get(key, eventual=True)) 的平均挂墙时间为 48 毫秒。有效载荷很小(一个字典列表,平均有 10 个元素,每个字典有两个浮点数)。
我不确定我是否应该说延迟很高,但我的 API 有 100 毫秒的预算来完成它需要做的所有事情并返回。如果只是数据提取需要大约 50% 的时间,我正在寻找优化方法。
问题:
- 一般而言,对于从 GCP 中按键获取的相当小的有效负载,50 毫秒听起来如何?
- 对于 GCP 中的 Memorystore,我应该期待什么(在延迟方面)?
【问题讨论】:
标签: python optimization google-cloud-datastore low-latency google-cloud-memorystore