【问题标题】:How to customize number of multiple hidden layer units in pytorch LSTM?如何在pytorch LSTM中自定义多个隐藏层单元的数量?
【发布时间】:2019-06-02 04:01:21
【问题描述】:

在 pytorch LSTM、RNN 或 GRU 模型中,有一个参数叫做“num_layers”,它控制着一个 LSTM 中隐藏层的数量。我想知道,既然 LSTM 中有多个层,为什么参数“hidden_​​size”只是一个数字,而不是包含多个层中隐藏状态数的列表,例如 [10,20,30]。

我在做一个回归项目时遇到过,其中我将 (seq_len, batch, feature) 的序列数据馈送到 LSTM,我想获得每个时间步的标量输出。

了解 pytorch LSTM 框架的有用链接,here。 如果有人能回答这个问题,我将不胜感激。

【问题讨论】:

    标签: lstm pytorch recurrent-neural-network


    【解决方案1】:

    似乎我已经找到了解决方案,即改用 LSTMCell。有用的链接:[1][2]。但是有没有更简单的方法?

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2019-11-12
      • 2018-01-25
      • 2021-07-31
      • 2018-09-21
      • 1970-01-01
      • 2018-10-05
      • 2019-06-11
      • 2021-11-25
      相关资源
      最近更新 更多