【发布时间】:2017-06-20 03:36:02
【问题描述】:
我正在使用 TensorFlow 使用 LeNet 网络对图像进行分类。我使用 AdamOptimizer 来最小化成本函数。当我开始训练模型时,我可以观察到训练准确率和验证准确率以及成本都在变化,有时会降低有时会增加。
我的问题:我们应该什么时候停止培训?我们怎么知道优化器会找到最小成本?我们应该训练多少次迭代?我们可以设置一个变量或条件以最低成本停止吗?
我的解决方案是定义一个全局变量 (min_cost) 并在每次迭代中检查成本是否降低,然后保存会话并用新成本替换 min_cost。最后,我将以最低的成本保存会话,
这是一个正确的方法吗?
提前致谢,
【问题讨论】: