【发布时间】:2021-05-29 21:29:02
【问题描述】:
所以我以三种不同的能力使用了 RNN/LSTM:
- 多对多:使用最后一层的每个输出来预测下一层。可能是分类或回归。
- 多对一:使用最终隐藏状态执行回归或分类。
- 一对多:获取潜在空间向量,可能是 LSTM 编码器的最终隐藏状态,并使用它来生成序列(我以自动编码器的形式完成了此操作)。
在这些情况下,我都没有使用中间隐藏状态来生成最终输出。在 #1 情况下只有最后一层输出,在 #2 和 #3 情况下只有最后一层隐藏状态。然而,PyTorch nn.LSTM/RNN 返回一个包含每一层最终隐藏状态的向量,所以我假设它们有一些用途。
我想知道这些中间层状态的一些用例是什么?
【问题讨论】:
标签: machine-learning neural-network pytorch recurrent-neural-network