【问题标题】:Locally load saved tensorflow model .pb from google cloud machine learning engine从谷歌云机器学习引擎本地加载保存的张量流模型.pb
【发布时间】:2017-09-25 19:03:20
【问题描述】:

我想使用我在网上训练的 tensorflow 模型,并使用我分发的 python 程序在本地运行它。

训练后,我得到一个目录 /model,其中包含两个文件 /saved_model.pb 和一个文件夹 /variables。在本地部署它的最简单方法是什么?

我关注 here 部署冻结模型,但我无法完全阅读 .pb。我直接将 saved_model.pb 下载到我的工作中并尝试了

with tf.gfile.GFile("saved_model.pb", "rb") as f:
    graph_def = tf.GraphDef()
    graph_def.ParseFromString(f.read())

google.protobuf.message.DecodeError: Truncated message.

看着 SO here,他们建议了一条不同的路线。

with tf.gfile.GFile("saved_model.pb", "rb") as f:
    proto_b=f.read()
    graph_def = tf.GraphDef()
    text_format.Merge(proto_b, graph_def) 

builtins.TypeError: a bytes-like object is required, not 'str'

我觉得这很混乱,因为

type(proto_b)
<class 'bytes'>
type(graph_def)
<class 'tensorflow.core.framework.graph_pb2.GraphDef'>

为什么会出错,字符串也不是?

部署经过云训练的模型的最佳方式是什么?

完整代码

import tensorflow as tf
import sys
from google.protobuf import text_format


# change this as you see fit
#image_path = sys.argv[1]
image_path="test.jpg"

# Read in the image_data
image_data = tf.gfile.FastGFile(image_path, 'rb').read()

# Loads label file, strips off carriage return
label_lines = [line.rstrip() for line 
               in tf.gfile.GFile("dict.txt")]

# Unpersists graph from file
with tf.gfile.GFile("saved_model.pb", "rb") as f:
    proto_b=f.read()
    graph_def = tf.GraphDef()
    text_format.Merge(proto_b, graph_def) 

with tf.Session() as sess:
    # Feed the image_data as input to the graph and get first prediction
    softmax_tensor = sess.graph.get_tensor_by_name('conv1/weights:0')

    predictions = sess.run(softmax_tensor, \
                           {'DecodeJpeg/contents:0': image_data})

    # Sort to show labels of first prediction in order of confidence
    top_k = predictions[0].argsort()[-len(predictions[0]):][::-1]

    for node_id in top_k:
        human_string = label_lines[node_id]
        score = predictions[0][node_id]
        print('%s (score = %.5f)' % (human_string, score))

【问题讨论】:

    标签: python tensorflow google-cloud-ml-engine


    【解决方案1】:

    您部署到 CloudML Engine 服务的模型格式为SavedModel。使用 loader 模块在 Python 中加载 SavedModel 相当简单:

    import tensorflow as tf
    
    with tf.Session(graph=tf.Graph()) as sess:
       tf.saved_model.loader.load(
           sess,
           [tf.saved_model.tag_constants.SERVING],
           path_to_model)
    

    要执行推理,您的代码几乎是正确的;您需要确保将批次喂给session.run,因此只需将image_data 包装在一个列表中:

    # Feed the image_data as input to the graph and get first prediction
    softmax_tensor = sess.graph.get_tensor_by_name('conv1/weights:0')
    
    predictions = sess.run(softmax_tensor, \
                           {'DecodeJpeg/contents:0': [image_data]})
    
    # Sort to show labels of first prediction in order of confidence
    top_k = predictions[0].argsort()[-len(predictions[0]):][::-1]
    
    for node_id in top_k:
        human_string = label_lines[node_id]
        score = predictions[0][node_id]
        print('%s (score = %.5f)' % (human_string, score))
    

    (请注意,根据您的图表,将您的 input_data 包装在一个列表中可能会增加您的预测张量的排名,您需要相应地调整代码)。

    【讨论】:

    • 两个音符。 loader.load 来自 tf.saved_model.loader.load,导出 dir 指向包含 saved_model.pb 和名为 variables 的文件夹的目录。
    • 这太棒了
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2018-01-31
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2019-02-14
    • 2016-01-11
    • 2017-06-08
    相关资源
    最近更新 更多