【问题标题】:Keras LSTM, is the time_step equal to 1 like transforming the LSTM into a MLP?Keras LSTM,time_step是否等于1,就像将LSTM转换为MLP一样?
【发布时间】:2018-11-26 15:50:11
【问题描述】:

我是深度学习这个领域的初学者。我正在尝试将 Keras 用于回归问题中的 LSTM。我想构建一个 ANN,它可以利用一个预测和下一个预测之间的记忆单元。

更详细地说...我有一个神经网络 (Keras),带有 2 个隐藏层-LSTM 和 1 个用于回归上下文的输出层。

batch_size 等于 7,timestep 等于 1,我有 5749 个样本。 我只想了解使用timestep == 1 是否与使用MLP 而不是LSTM 相同。对于time_step,我指的是KerasSequential 模型输入的重塑阶段。输出是一个单一的回归。

我对之前的输入不感兴趣,但我只对网络的输出感兴趣,作为下一个预测的信息。

提前谢谢你!

【问题讨论】:

    标签: python tensorflow keras deep-learning lstm


    【解决方案1】:

    你可以这么说:)

    您认为您将不再有任何重复性是正确的。
    但在内部,由于存在更多内核,操作仍将比常规Dense 层更多。

    但要小心:

    • 如果你使用stateful=True,它仍然是一个循环的LSTM!
    • 如果您正确使用初始状态,您仍然可以使其循环。

    如果您有兴趣使用单元格的内存/状态创建自定义操作,您可以尝试使用 LSTMCell 代码作为模板创建自定义循环单元格。

    然后您将在RNN(CustomCell, ...) 层中使用该单元格。

    【讨论】:

      猜你喜欢
      • 2019-09-28
      • 1970-01-01
      • 2019-08-07
      • 2018-06-29
      • 2020-02-09
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多