【发布时间】:2018-08-11 15:03:15
【问题描述】:
我是 Pytorch 的新手,在图像字幕 example code 中存在疑问。在 DcoderRNN 类中,lstm 定义为,
self.lstm = nn.LSTM(embed_size, hidden_size, num_layers, batch_first=True)
在前向函数中,
embeddings = self.embed(captions)
embeddings = torch.cat((features.unsqueeze(1), embeddings), 1)
我们首先嵌入字幕,然后将嵌入与来自 EncoderCNN 的上下文特征连接起来,但是连接会增加嵌入大小的大小,我们如何将其转发到 lstm?因为 lstm 的输入大小已经定义为 embed_size。
我在这里遗漏了什么吗?提前致谢。
【问题讨论】:
标签: deep-learning lstm torch pytorch