【发布时间】:2021-07-22 09:23:37
【问题描述】:
我目前正在从事一个涉及循环神经网络的 NLP 项目。我按照教程here 使用 PyTorch 实现了 LSTM。
对于我的项目,我需要为输入文本的每个标记提取隐藏表示。我认为最简单的方法是使用批量大小和序列长度 1 进行测试,但是当我这样做时,损失会比训练阶段大几个数量级(在训练期间,我使用了 64 的批量大小和序列长度35)。
有没有其他方法可以轻松访问这些单词级隐藏表示?谢谢。
【问题讨论】:
标签: nlp pytorch lstm recurrent-neural-network