经典的RNN结构:复习一下RNN吧

 

由图可得,一输入一输出,因此成为输入序列和输出序列具有相同的时间长度

 

2)我们为其加上时序性

 

复习一下RNN吧

时间信息作为一个坐标信息加入

复习一下RNN吧

则展开,我们可得复习一下RNN吧

RNN中的“权值共享”:任意时刻 复习一下RNN吧 ,所有的权值(包括 复习一下RNN吧 , 复习一下RNN吧 , 复习一下RNN吧 , 复习一下RNN吧 , 复习一下RNN吧 , 复习一下RNN吧 )都相等

 

 

3)Sequence to Sequence模型

复习一下RNN吧

本质:是一个encoder和decoder的过程,不断地将前一个时刻  的输出作为后一个时刻 t-1 的输入

 

encode端:编码器encoder把所有的输入序列都编码成一个统一的语义向量context(不断地将前一个时刻 t-1  的输出作为后一个时刻 t 的输入)

例如:复习一下RNN吧

与RNN的区别:Seq2Seq结构不再要求输入和输出序列有相同的时间长度!

 

decode端:

复习一下RNN吧

由上图可得,输入复习一下RNN吧经过RNN,最后经过sigmoid 或 argmax获得其当前标签(index),经过int2str后将其输出的字符作为输入送入第二时间序列(下一状态)

 

4)Attention注意力机制

解决问题:1)当输入信息过大时(句子过长),一个context存储不下,会造成精度下降

                   2)每次只用到编码器最后一个隐藏层状态,信息利用率很低

复习一下RNN吧

1)encoder把所有的输入序列都编码成一个统一的语义向量context,其中encoder的隐藏层状态 复习一下RNN吧 代表对不同时刻输入 复习一下RNN吧 的编码结果,会使得context装不下,因此这里引用了多次分别输入(类似于多特征图融合FPN)

细节如下:复习一下RNN吧

     

                        祝好~!

 

 

 

相关文章:

  • 2021-05-19
  • 2021-11-30
  • 2021-08-12
  • 2021-09-20
  • 2021-08-21
  • 2021-12-09
  • 2021-04-14
  • 2021-11-29
猜你喜欢
  • 2021-07-03
  • 2022-12-23
  • 2021-07-19
  • 2021-06-01
  • 2022-01-01
  • 2022-12-23
相关资源
相似解决方案