机器翻译:

相关方法:

1、通过RNN生成序列

Sequence-to-Sequence 论文精读(多层LSTM)

 

 Encoder:普通的LSTM,将一句话映射成一个向量C

Decoder:对于隐藏层:Sequence-to-Sequence 论文精读(多层LSTM)

 

 

     对于输出层:Sequence-to-Sequence 论文精读(多层LSTM)

 

 

Sequence-to-Sequence 论文精读(多层LSTM)

 二、

Encoder:单层双向的LSTM

Decoder:对于输出:Sequence-to-Sequence 论文精读(多层LSTM)

 

 

    对于Ci:Sequence-to-Sequence 论文精读(多层LSTM)

 

 

Sequence-to-Sequence 论文精读(多层LSTM)

 Sequence-to-Sequence 论文精读(多层LSTM)

 

 Sequence-to-Sequence 论文精读(多层LSTM)

 

 

 创新点:

1、Encoder和Decoder中的LSTM不一样

2、使用了4层深的LSTM -- 提高性能

3、输入逆序---为什么?使源语言第一个词和目标语言第一个词足够近,这样能保证保留更多信息,翻译的更加准确。

 

相关文章:

  • 2021-09-17
  • 2021-10-26
  • 2021-08-24
  • 2021-10-05
  • 2022-12-23
  • 2021-08-11
  • 2022-12-23
猜你喜欢
  • 2021-08-17
  • 2021-08-22
  • 2021-10-24
  • 2021-10-15
  • 2022-12-23
  • 2021-09-18
  • 2021-10-22
相关资源
相似解决方案