【发布时间】:2020-02-08 13:50:48
【问题描述】:
我有一个用于翻译文本的 seq2seq 神经网络。我需要句子在批处理期间保持不变,更准确地说,一个句子应该像一个不可分割的标记块。但是,看起来 Torchtext 提供的迭代器(BucketIterator 和 Iterator)不保持令牌的初始顺序。除了编写我自己的填充和批处理功能之外,是否有解决方案?
【问题讨论】:
标签: python deep-learning dataset recurrent-neural-network torchtext