【发布时间】:2019-03-18 10:53:45
【问题描述】:
我对机器学习非常陌生,并且正在徘徊是否可以手动清空 LSTM 的短期记忆。比如说,我想在句子上训练一个 LSTM “杰克和吉尔上去了,”但决定不结束这句话。如果我想在“Humpty dumpty sat on a wall”上训练它,我将如何阻止它立即预测“hill”这个词?我正在使用 Keras。
【问题讨论】:
标签: machine-learning lstm recurrent-neural-network
我对机器学习非常陌生,并且正在徘徊是否可以手动清空 LSTM 的短期记忆。比如说,我想在句子上训练一个 LSTM “杰克和吉尔上去了,”但决定不结束这句话。如果我想在“Humpty dumpty sat on a wall”上训练它,我将如何阻止它立即预测“hill”这个词?我正在使用 Keras。
【问题讨论】:
标签: machine-learning lstm recurrent-neural-network
相关:When does keras reset an LSTM state?
如果您的 LSTM 是无状态的(stateful = False,我认为这对您来说更有意义),或者如果您通过将这两个句子放在同一个批次中来训练 LSTM,则您不需要重置上下文。
如果你真的这样做,请使用model.reset_state()。
【讨论】: