【问题标题】:Can TimeDistributed Layer used for many-to-one LSTM?TimeDistributed Layer 可以用于多对一 LSTM 吗?
【发布时间】:2018-07-26 03:53:22
【问题描述】:

在 Keras 中,我发现很多人在训练多对一 LSTM 模型时将“返回序列”指定为 False。 我想知道我可以为每个时间步单元格使用 TimeDistributed Layer,然后使用上面的密集层来获取输出吗?

【问题讨论】:

  • 是的,你可以。对于某些问题,这可能很有趣

标签: keras nlp deep-learning lstm rnn


【解决方案1】:

是的,你可以这样做。 问题是,你想要实现什么。 return_sequences 确实返回所有隐藏状态,通常用于堆叠多个 LSTM 或用于 seq to seq 预测(多对多)。默认值为“False”,因为使用序列输出不是标准用例。

当您在最终密集层中使用序列输出进行多对一预测时,它并没有真正帮助,因为 LSTM 应该已经学会这样做了。试一试,有时会有所帮助,但很难解释原因。

【讨论】:

    猜你喜欢
    • 2017-10-01
    • 2017-03-28
    • 2018-04-04
    • 2019-03-12
    • 1970-01-01
    • 1970-01-01
    • 2018-07-01
    • 2022-06-10
    • 1970-01-01
    相关资源
    最近更新 更多