【问题标题】:How can I use tensorflow serving for multiple models如何为多个模型使用 tensorflow 服务
【发布时间】:2018-01-26 16:33:50
【问题描述】:

如何使用多个tensorflow 模型? 我使用 docker 容器。

model_config_list: {

  config: {
    name: "model1",
    base_path: "/tmp/model",
    model_platform: "tensorflow"
  },
  config: {
     name: "model2",
     base_path: "/tmp/model2",
     model_platform: "tensorflow"
  }
}

【问题讨论】:

    标签: docker tensorflow tensorflow-serving


    【解决方案1】:

    从官方tensorflow servingdocker file构建一个docker镜像

    然后在 docker 镜像中。

    /usr/local/bin/tensorflow_model_server --port=9000 --model_config_file=/serving/models.conf
    

    这里的/serving/models.conf 与您的文件相似。

    【讨论】:

    • 我认为在命令行中不需要model_name,因为它是在每个模型的配置文件中指定的?
    • 是的,你是对的。 (如果使用model_config_file,则忽略--model_name、--model_base_path。)。现已编辑
    猜你喜欢
    • 2019-04-01
    • 2021-05-19
    • 2018-09-12
    • 2019-02-18
    • 1970-01-01
    • 2021-09-10
    • 2017-09-24
    • 2019-04-21
    • 1970-01-01
    相关资源
    最近更新 更多