【发布时间】:2018-03-03 11:57:08
【问题描述】:
这是我对基本序列到序列 LSTM 的理解。假设我们正在处理问答设置。
你有两组 LSTM(下面的绿色和蓝色)。每组分别共享权重(即 4 个绿色单元格中的每一个都具有相同的权重,并且与蓝色单元格相似)。第一个是多对一LSTM,总结了在最后一个隐藏层/cell memory的问题。
第二组(蓝色)是多对多 LSTM,其权重与第一组 LSTM 不同。输入只是答案句子,而输出是同一个句子移位了。
问题有两个方面: 1. 我们是否将最后一个隐藏状态仅作为初始隐藏状态传递给蓝色 LSTM。或者它是最后一个隐藏状态和细胞记忆。 2. 有没有办法在 Keras 或 Tensorflow 中设置初始隐藏状态和单元内存?如果有参考?
【问题讨论】:
-
我对你的问题有很多疑问...... 1 - “每组分别共享权重”是什么意思? -- 2- 你对细胞记忆和细胞状态的理解是什么? -- 3 -- 如果图片说它以“思想向量”作为输入,为什么蓝色是多对多的? -- 4 -- 为什么蓝色得到答案并输出一个偏移的答案?疑问句从何而来? ---- 我可以说的一件事是:只有“输出”从一层传递到另一层。
-
1.在上面的括号中回答。 2. 我想我的意思是细胞状态(根据 colah 的博客,基本上是从 LSTM 传递出来的两件事之一)。 3.我不理解思想向量(这是整个问题的意义所在),但没有它,它是多对多的。看看输出如何循环回输入。 4.这只是训练时间,在测试期间你只需要最高概率的输出(或光束搜索)
标签: tensorflow keras lstm