【问题标题】:What is the difference between Deploying and Serving ML model?Deploying 和 Serving ML 模型有什么区别?
【发布时间】:2021-04-09 09:56:48
【问题描述】:

最近我开发了一个用于分类问题的 ML 模型,现在想投入到生产中对实际生产数据进行分类,在探索时我遇到了两种部署和服务 ML 模型的方法,它们之间的基本区别是什么?

【问题讨论】:

  • 部署是将模型放入服务器的过程。服务是使模型可从服务器访问的过程(例如使用 REST API 或 Web 套接字)。

标签: machine-learning deployment data-science serving


【解决方案1】:

根据我自己的阅读和理解,区别如下:

  1. 部署 = 这意味着您想要创建一个服务器/api(例如 REST API),以便它能够预测新的未标记数据

  2. Serving = 它充当专门用于预测模型的服务器。这个想法是它可以为具有不同请求的多个模型提供服务。

基本上,如果您的用例需要部署多个 ML 模型,您可能希望寻找像 torchServe 这样的服务。但如果只是一个模型,对我来说,Flask 已经足够好了。

参考:

Pytorch Deploying using flask

TorchServe

【讨论】:

  • 我在互联网上发现了这个:模型服务允许您将模型注册表中的机器学习模型作为 REST 端点托管,这些端点会根据模型版本及其阶段的可用性自动更新。所以这意味着部署 = REST API,服务 = REST 端点?
  • 部署和服务都可以有 REST API(或端点)。部署不一定需要 REST API(API 已经可以了)。
猜你喜欢
  • 1970-01-01
  • 2016-12-14
  • 1970-01-01
  • 1970-01-01
  • 2012-09-15
  • 1970-01-01
  • 2012-02-03
  • 2021-04-16
  • 1970-01-01
相关资源
最近更新 更多