【问题标题】:what is the inputs to a torch.nn.gru function in pytorch?pytorch 中的 torch.nn.gru 函数的输入是什么?
【发布时间】:2020-03-23 22:15:07
【问题描述】:

我正在使用 gru 函数来实现 RNN。这个 RNN (GRU) 在一些 CNN 层之后使用。有人可以告诉我这里 GRU 函数的输入是什么吗?特别是,隐藏的大小是固定的吗?

self.gru = torch.nn.GRU(
            input_size=input_size,
            hidden_size=128,
            num_layers=1,
            batch_first=True,
            bidirectional=True) 

根据我的理解,输入大小将是特征的数量,而 GRU 的隐藏大小总是固定为 128?有人可以纠正我。或提供他们的反馈

【问题讨论】:

    标签: pytorch recurrent-neural-network gated-recurrent-unit


    【解决方案1】:

    首先,GRU 不是一个函数,而是一个类,您正在调用它的构造函数。你在这里创建了一个 GRU 类的实例,它是一个层(或 pytorch 中的 Module)。

    input_size 必须与前一个 CNN 层的out_channels 匹配。

    您看到的所有参数都不是固定的。只需在此处输入另一个值,它将是其他值,即将 128 替换为您喜欢的任何值。

    即使它被称为hidden_size,对于 GRU,此参数也决定了输出特征。换句话说,如果您在 GRU 之后还有另一层,则该层的 input_size(或 in_featuresin_channels 或其他任何名称)必须与 GRU 的 hidden_size 匹配。

    另外,看看documentation。这会准确地告诉您传递给构造函数的参数的用途。此外,它会告诉您在实际使用层后(通过self.gru(...))的预期输入是什么,以及该调用的输出是什么。

    【讨论】:

      猜你喜欢
      • 2020-09-21
      • 2023-01-26
      • 2020-05-08
      • 1970-01-01
      • 2020-04-30
      • 2018-06-21
      • 2016-12-13
      • 1970-01-01
      • 2016-11-22
      相关资源
      最近更新 更多