【问题标题】:Can you make an LSTM forget context manually?你可以手动让 LSTM 忘记上下文吗?
【发布时间】:2019-03-18 10:53:45
【问题描述】:

我对机器学习非常陌生,并且正在徘徊是否可以手动清空 LSTM 的短期记忆。比如说,我想在句子上训练一个 LSTM “杰克和吉尔上去了,”但决定不结束这句话。如果我想在“Humpty dumpty sat on a wall”上训练它,我将如何阻止它立即预测“hill”这个词?我正在使用 Keras。

【问题讨论】:

    标签: machine-learning lstm recurrent-neural-network


    【解决方案1】:

    相关:When does keras reset an LSTM state?

    如果您的 LSTM 是无状态的(stateful = False,我认为这对您来说更有意义),或者如果您通过将这两个句子放在同一个批次中来训练 LSTM,则您不需要重置上下文。

    如果你真的这样做,请使用model.reset_state()

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2014-12-26
      • 2021-10-10
      • 2010-11-13
      • 2011-03-19
      • 2014-10-01
      • 2012-02-17
      • 1970-01-01
      • 2014-10-20
      相关资源
      最近更新 更多