【发布时间】:2017-08-13 07:39:30
【问题描述】:
美好的一天! (或夜晚)
在 CIFAR-10 数据集(对于
是否有可能达到 0.001 或 0?
你能告诉我你的经历吗?
附:我想从过度拟合开始训练 NN,然后调整参数以获得更好的泛化...
【问题讨论】:
标签: machine-learning neural-network
美好的一天! (或夜晚)
在 CIFAR-10 数据集(对于
是否有可能达到 0.001 或 0?
你能告诉我你的经历吗?
附:我想从过度拟合开始训练 NN,然后调整参数以获得更好的泛化...
【问题讨论】:
标签: machine-learning neural-network
由于您没有对隐藏层的宽度指定任何限制,因此答案很简单 - 0。一个浅层的单隐藏层神经网络(给定足够的隐藏单元)可以实现 0 训练任何有限数据集上的错误(就错误分类而言)(只要没有两个具有不同标签的样本)。这直接来自 UAT(通用逼近定理,来自 Cybenko)。当然,您在实践中会遇到的情况可能会有所不同,但总的来说,您可以在 Cifar10 上获得 100% 的训练准确率。
【讨论】: