• 对于SimpleRNN来说,要更新当前状态h_1 :

    • 将“输入”和“上一个时刻状态”拼接

    • 乘以A,加上b,乘以双曲正切函数

注意力机制----RNN中的self-attention

  • 对于有注意力机制的RNN来说:

    • 将“输入”和“c_0”拼接

    • (剩下都一样)

    • (也可以将三个拼接)

注意力机制----RNN中的self-attention

  • 每一个c的算法: 注意力权重和状态 做向量内积

注意力机制----RNN中的self-attention

  • 总结:

    • attention是用在seq2seq模型中的,是encoder做出用于decoder。

    • 而self-attention是用在RNN中,甚至其它各种网络。

相关文章:

  • 2021-09-25
  • 2022-01-09
  • 2021-05-10
  • 2021-05-17
  • 2021-12-26
  • 2022-12-23
  • 2022-01-13
  • 2021-12-02
猜你喜欢
  • 2021-04-04
  • 2021-05-19
  • 2021-12-02
  • 2021-06-06
  • 2021-06-30
  • 2022-12-23
  • 2021-09-26
相关资源
相似解决方案