【问题标题】:How can an mlflow model be scaled to serve more requests?如何扩展 mlflow 模型以服务更多请求?
【发布时间】:2020-07-30 15:45:56
【问题描述】:

我想让我的 MLFlow 模型的多个实例并行运行,但隐藏在同一个端点/端口的公共后面,因此用户看不到它。

【问题讨论】:

    标签: multithreading gunicorn mlflow


    【解决方案1】:

    你有几个选择:

    1. 随着工作人员的数量增加 mlflow 服务 -w flag 的工作人员数量
    2. 使用云平台link
    3. Kubernetes with kubeflow 上服务您的模型

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2019-12-07
      • 1970-01-01
      • 2015-10-27
      • 2022-01-07
      • 2018-02-07
      • 2020-03-30
      • 2014-08-05
      相关资源
      最近更新 更多