【发布时间】:2020-10-06 07:34:32
【问题描述】:
我们有三种损失
- 损失
- batch_loss
- train_loss
据我了解 loss 是一个张量,batch loss 是 tensor 的值,train_loss 是 batch_loss 的累积值,这对我来说没问题。
我的问题是为什么 AllenNLP 考虑了 batch_loss 并没有计算 batch_group 的累积损失?
我也不明白 epoch 内需要 batch_group,batch_group 内需要批处理
这是我的理解 我们里面有 epoch 我们在 batch_group 里面有 batch_group 我们有批处理 batch_loss 是为 batch 而不是为 batch_group 计算的,为什么?
【问题讨论】:
-
在这一行github.com/allenai/allennlp/blob/… 我认为有一个错误我们不应该先累积批量损失,然后在完成 for 循环后将 batch_reg_loss 添加到总 train_reg 损失中,就像使用 batch_loss 所做的那样?跨度>
标签: allennlp