【问题标题】:Data augmentation affects convergence speed数据增强影响收敛速度
【发布时间】:2021-08-16 18:42:52
【问题描述】:

数据增强无疑是一种很好的正则化方法,它提高了我在未见过的测试集上的准确性。但是,我不明白为什么会降低网络的收敛速度?我知道每个 epoch 都需要更长的时间来训练,因为图像转换是动态应用的。但是为什么会影响收敛呢?对于我目前的设置,网络在没有数据增强的情况下在 5 个 epoch 后达到 100% 的训练准确度(并且明显过拟合) - 在数据增强的情况下,需要 23 个 epoch 才能达到 95% 的训练准确度,但似乎永远不会达到 100%。

关于这背后的原因的研究论文或 cmets 的任何链接?

【问题讨论】:

    标签: keras computer-vision conv-neural-network data-augmentation


    【解决方案1】:

    我猜你正在评估训练集的准确性,对吧?这是一个错误......

    如果不进行扩充,您的网络只会过度拟合。您有预定义数量的图像,例如 1000 张,并且您的网络在训练期间可以轻松记住数据集标签。您正在对固定(非增强)数据集上的模型进行评估。

    当您使用数据增强训练网络时,基本上,您是在无限大小的数据集上训练模型。您正在动态进行增强,这意味着模型每次都会“看到”新图像,并且无法以 100% 的准确度完美地记住它们。您正在增强(无限)数据集上评估模型。

    当您在使用和不使用增强的情况下训练模型时,您会在不同的数据集上对其进行评估,因此比较它们的准确性是不正确的。

    建议: 不要看训练集的准确性,当您使用增强时,它只会产生误导。相反 - 在未增强的测试集(或验证集)上评估您的模型。通过这样做 - 您将看到模型的真正准确度提高。

    附:如果您想了解有关图像增强的更多信息,我真的建议您查看本指南 - https://notrocketscience.blog/complete-guide-to-data-augmentation-for-computer-vision/

    【讨论】:

      猜你喜欢
      • 2021-08-24
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2020-02-23
      • 1970-01-01
      • 2014-10-20
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多