【问题标题】:Caffe Iteration loss versus Train Net lossCaffe 迭代损失与训练净损失
【发布时间】:2015-10-28 16:48:17
【问题描述】:

我正在使用 caffe 训练一个底部带有欧几里德损失层的 CNN,并且我的 solver.prototxt 文件配置为每 100 次迭代显示一次。我看到这样的东西,

Iteration 4400, loss = 0
I0805 11:10:16.976716 1936085760 solver.cpp:229]     Train net output #0: loss = 2.92436 (* 1 = 2.92436 loss)

我对迭代损失和训练净损失之间的区别感到困惑。通常迭代损失非常小(大约为 0),而训练网络输出损失稍大一些。有人可以澄清一下吗?

【问题讨论】:

  • 如果您的问题得到解决,您介意接受答案吗?

标签: python neural-network euclidean-distance caffe pycaffe


【解决方案1】:

Evan Shelhamer 已经在 https://groups.google.com/forum/#!topic/caffe-users/WEhQ92s9Vus 上给出了答案。

正如他所指出的,net output #k 结果是该特定迭代/批次的网络输出,而Iteration T, loss = X 输出根据average_loss 字段在迭代之间进行平滑处理。

【讨论】:

猜你喜欢
  • 2018-03-30
  • 2019-04-02
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2019-11-29
  • 1970-01-01
  • 2018-04-05
相关资源
最近更新 更多