【问题标题】:How can an mlflow model be scaled to serve more requests?如何扩展 mlflow 模型以服务更多请求? 【发布时间】:2020-07-30 15:45:56 【问题描述】: 我想让我的 MLFlow 模型的多个实例并行运行,但隐藏在同一个端点/端口的公共后面,因此用户看不到它。 【问题讨论】: 标签: multithreading gunicorn mlflow 【解决方案1】: 你有几个选择: 随着工作人员的数量增加 mlflow 服务 -w flag 的工作人员数量 使用云平台link 在Kubernetes with kubeflow 上服务您的模型 【讨论】: