【发布时间】:2018-09-16 08:20:13
【问题描述】:
我在 tensorflow 中训练了一个神经网络。在每个优化步骤之后,我想保持更新前的权重。所以如果优化步骤不好,我可以回到优化步骤之前的权重。
目前我正在尝试执行以下操作:
使用 original_session = copy.copy(session) 复制 tensorflow 会话
使用 Adam Optimizer 训练批次
使用 session.close() 关闭表现不佳的会话
继续现有会话
我在使用这种方法时遇到了问题。该进程刚刚退出,错误代码为 139,没有任何错误消息。
对我来说,由于性能问题,不要将模型保存到带有检查点文件的硬盘上,这一点很重要。我只想在内存中保留一份网络副本。
你有一些想法如何在 tensorflow 中做到这一点?
谢谢!
【问题讨论】:
标签: python tensorflow