【发布时间】:2017-12-24 19:15:27
【问题描述】:
我正在训练一个包含大约 10 个卷积层和几个池化层的卷积网络。训练集大约有 250,000 个样本(16,000 个长度向量)。通过第一个 epoch 大约 50%,训练和测试错误从大约 68% 跃升至 92%。学习率是相同的(批量梯度下降)。批量大小为 32。是什么导致了这种跳跃,如何解释这种跳跃?
【问题讨论】:
标签: tensorflow machine-learning deep-learning gradient-descent