【问题标题】:Lowest training error possible for neural network on CIFAR-10CIFAR-10 上神经网络的最低​​训练误差
【发布时间】:2017-08-13 07:39:30
【问题描述】:

美好的一天! (或夜晚)

在 CIFAR-10 数据集(对于

是否有可能达到 0.001 或 0?

你能告诉我你的经历吗?

附:我想从过度拟合开始训练 NN,然后调整参数以获得更好的泛化...

【问题讨论】:

    标签: machine-learning neural-network


    【解决方案1】:

    由于您没有对隐藏层的宽度指定任何限制,因此答案很简单 - 0。一个浅层的单隐藏层神经网络(给定足够的隐藏单元)可以实现 0 训练任何有限数据集上的错误(就错误分类而言)(只要没有两个具有不同标签的样本)。这直接来自 UAT(通用逼近定理,来自 Cybenko)。当然,您在实践中会遇到的情况可能会有所不同,但总的来说,您可以在 Cifar10 上获得 100% 的训练准确率。

    【讨论】:

      猜你喜欢
      • 2018-07-14
      • 2014-01-02
      • 2011-11-20
      • 2016-07-01
      • 2011-04-07
      • 1970-01-01
      • 2020-03-10
      • 2015-05-28
      • 2010-11-20
      相关资源
      最近更新 更多