【发布时间】:2020-05-07 15:03:55
【问题描述】:
我想知道为什么训练时图像的数量对迭代次数没有影响。这是一个使我的问题更清楚的示例: 假设我们有 6400 张图像用于训练以识别 4 个类别。根据 AlexeyAB 的解释,我们保持 batch= 64,subdivisions = 16 并写 max_batches = 8000,因为 max_batches 由 #classes x 2000 决定。
由于我们有 6400 张图像,一个完整的 epoch 需要 100 次迭代。因此,此训练在 80 个 epoch 后结束。 现在,假设我们有 12800 张图像。在这种情况下,一个 epoch 需要 200 次迭代。因此训练在 40 个 epoch 后结束。 由于一个时期是指整个训练数据集的一个周期,我想知道为什么我们在数据集增加时不增加迭代次数,以保持时期数不变。
换一种说法,我想简单解释一下为什么 epoch 的数量似乎与训练的质量无关。我觉得这是 Yolo 构造的结果,但我知识不够,无法理解。
【问题讨论】:
标签: machine-learning yolo darknet