【问题标题】:Restoring a Trained Neural Network恢复训练有素的神经网络
【发布时间】:2018-06-07 14:59:12
【问题描述】:

我有一个带有 LSTM 的 RNN,它使用两个占位符来针对目标向量训练输入向量。训练有效,但在恢复时我应该提供什么目标占位符?

从概念上讲,我不明白为什么需要这样做,因为在生产环境中我只有输入向量,并希望经过训练的模型提供输出。

【问题讨论】:

  • 你能发布一些代码和错误吗?这将有助于明确您的具体要求。

标签: tensorflow neural-network recurrent-neural-network


【解决方案1】:

通常,当您进行监督学习时,您有一个输入 x 和基本事实 y。您的模型及其参数化提供了预测 y_hat。通过使用使损失最小化的优化器(衡量您的预测与实际情况的接近程度),您可以使模型适应数据并改进结果。

当您完成训练后,您不再需要 y 的占位符,因为您将一些 x 输入模型并获得其预测 y_hat。因此,您这样做是对的

# load model
x = graph.get_tensor_by_name('x:0')
y_hat = graph.get_tensor_by_name('whateverOutput:0')

sess.run(y_hat, feed_dict={x:myProductionData})

所以您的结果现在存储在 y_hat 中。

【讨论】:

  • 是,但恢复失败并出现错误“必须为占位符提供值”
  • 如果您理解这个概念,为什么不发布您的代码?你写道你对这个概念有问题。
猜你喜欢
  • 2019-03-18
  • 2011-04-07
  • 1970-01-01
  • 2018-09-19
  • 2010-11-20
  • 2019-09-15
  • 1970-01-01
  • 1970-01-01
  • 2017-04-21
相关资源
最近更新 更多