长短期记忆网络LSTM的变体

1.peephole connection

Gers & Schmidhuber 于2000年提出,增加了peephole connection,变化是门(包括遗忘门,输入门)都可以接受上一个细胞(神经元)的输入

LSTM 变体

在上面这个原始的LSTM的细胞/神经元的网络结构图中.演化为下面这种结构,这个结构图的三条红线使得每个门都可以接收,上一个细胞的状态LSTM 变体,修改过后的计算公式如下

LSTM 变体

 其中,h(t-1)是上一个时刻的隐藏层状态,x(t)是本时刻的细胞或者神经元的输入,f(t-1),i(t),o(t)分别表示,忘记门,输入门,输出门.

2. 耦合(coupled)遗忘和输入单元

我们都知道,原始的LSTM网络将遗忘门和更新的过程是分开的,但是这种LSTM网络将遗忘门和新记忆两个过程结合起来,即只遗忘那些有新元素来填充的元素.

LSTM 变体 

而且,相应的更新公式也要发生变化.

LSTM 变体

3 门循环单元(Gated Recurrent Unit,GRU)

Cho等人于2014年提出,其混合了长期状态和隐藏状态

LSTM 变体

 GRU只有两个门:重置(Reset)门LSTM 变体和更新门(update)LSTM 变体,取消了LSTM中的输出门.R和Z共同控制了如何从之间隐藏状态LSTM 变体计算获得新的隐藏状态LSTM 变体.重新的计算公式

LSTM 变体

相关论文:Cho K,Van Merrienboer B,Gulcehre C,et al. Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation[J]. Eprint Arxiv, 2014

相关文章:

  • 2021-04-13
  • 2022-01-09
  • 2021-04-29
  • 2021-04-04
  • 2021-10-11
  • 2021-07-25
  • 2021-11-24
  • 2021-07-01
猜你喜欢
  • 2021-07-06
  • 2021-12-07
  • 2022-12-23
  • 2021-07-02
  • 2021-05-28
  • 2021-07-07
  • 2021-05-01
相关资源
相似解决方案