【问题标题】:Pytorch nn embeddings dimension size?Pytorch nn嵌入尺寸大小?
【发布时间】:2019-03-22 20:30:16
【问题描述】:

Pytorch 中 nn 嵌入的正确尺寸是多少?我正在做批量训练。

当我得到“形状”时,我对下面代码中“self.embeddings”的尺寸应该是什么感到有点困惑?

self.embeddings = nn.Embedding(vocab_size, embedding_dim)

【问题讨论】:

  • 你的意思是self.embedding的形状是什么?
  • @JibinMathew 是的,这就是我的意思

标签: neural-network pytorch


【解决方案1】:

self.embedding 的形状将是 [sentence_length, batch_size, embedding_dim]

其中sentence_length 是每批输入的长度。

【讨论】:

  • 只是一个后续问题,在模型的“转发”功能中,如果我想将self.embeddings传递给一个nn.linear层,我该怎么做呢?它说“预期输入 batch_size (4) 与目标 batch_size (32) 匹配”。我应该使用“总和”吗?谢谢!
  • 我建议您将其作为单独的问题与代码一起发布,以便提供更好的想法并帮助他人
猜你喜欢
  • 2016-10-27
  • 2015-07-03
  • 2021-10-02
  • 2020-09-06
  • 2018-06-12
  • 2022-01-19
  • 1970-01-01
  • 1970-01-01
  • 2012-04-26
相关资源
最近更新 更多