【发布时间】:2019-02-10 06:10:16
【问题描述】:
在训练LSTM模型的过程中,我原本将学习率固定为0.0001,但是在训练过程中会周期性地经历损失增加和准确率下降,如下图。 enter image description here
我认为样本不好,但我在多个库上都有这个问题。我考虑使用学习率衰减并修改 Adam 优化器的 beta 值。震动虽然解决了,但性能会大打折扣。
所以我想问以下问题: 1、为什么我可以通过修改beta来解决这个问题,但是却导致准确率下降? 2.如果是坏样本,为什么在多个数据库中都会出现这个问题? (ps:我用同样的方法提取特征,可能是因为这个吧?)会不会是模型的原因? 3. 如果我想删除不良样本怎么办?
【问题讨论】:
-
您可能应该在更多与数据科学相关的 SE 网站上发布您的问题,例如 crossvalidated 或 datascience。
标签: python tensorflow