【问题标题】:Serving a TensorFlow Custom Model提供 TensorFlow 自定义模型
【发布时间】:2018-04-18 19:04:59
【问题描述】:

我是机器学习的新手,基本上我创建了自己的图像数据集并对其进行训练并在 jupyter notebook 上识别图像,之后我尝试按照this 教程部署此模型

我执行

bazel build -c opt //tensorflow_serving/example:mnist_saved_model

bazel-bin/tensorflow_serving/example/mnist_saved_model /tmp/mnist_model

运行成功。

如何导出我自己的模型并进行部署?我的模型名称是“GoogleTensorflow”

我使用

创建了这个模型
python3 export_inference_graph.py 
--input_type image_tensor 
--pipeline_config_path training/ssd_mobilenet_v1_pets.config 
--trained_checkpoint_prefix training/model.ckpt-26456 
--output_directory GoogleTensorflow

【问题讨论】:

    标签: tensorflow tensorflow-serving tensorflow-datasets tensorflow-estimator tensorflow-slim


    【解决方案1】:

    将您的自定义训练文件夹移至 tmp 文件夹,该模型应在其中包含版本 ex 1 文件夹

    【讨论】:

      猜你喜欢
      • 2021-12-17
      • 1970-01-01
      • 2019-03-17
      • 2018-05-24
      • 2016-08-15
      • 2017-09-10
      • 2021-04-29
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多