【发布时间】:2020-10-27 12:52:48
【问题描述】:
我正在通过对象检测对数据集进行建模。我对深度学习比较陌生。我很难在深度学习的背景下扩展交叉验证的想法。通常,深度网络的训练时间很长,k-fold CV 不是一个合理的方法。所以,可能 1 折交叉验证更有意义(我已经看到人们在实践中使用它)。我试图推理这种选择并思考交叉验证背后的想法:超参数调整,或量化建模何时开始过度拟合。我的问题如下:
-
1 倍 CV 的随机抽样误差如何?我的想法:对于 k 倍 CV,当 k>1 时,这个误差会被平均化。此外,在 k=1 的情况下,超参数对我来说似乎也不合理:我们最终找到的值可以与我们称为验证集的(随机)样本相结合。那么,1-fold CV 的意义何在?
-
我正在处理的数据中已经存在大量数据点。我有大约 4k 图像,2 个类别(对象+背景),每个图像的边界框。我认为深度网络通过更多数据更好地学习是普遍的智慧。在这种情况下,我为什么要通过保留验证集来减少我的训练集?我没有看到任何明显的优势。相反,似乎使用整个数据集进行训练可以产生更好的目标检测模型。如果这是真的,那么如何知道何时停止,即我可以继续训练,而没有任何关于模型是否开始过度拟合的反馈?
-
如何部署生产模型?我想我在上课的时候从来没有想过这个问题。这种方法很清楚,你总是有一个训练、验证、测试集。在实际设置中,如何利用整个数据来创建生产模型? (可能与#2有关,即处理实际方面,例如要训练多少等)
【问题讨论】:
-
请注意
machine-learningtag info中的介绍和注意。
标签: machine-learning deep-learning computer-vision object-detection supervised-learning