【问题标题】:Keras LSTM use softmax on every unitKeras LSTM 在每个单元上使用 softmax
【发布时间】:2020-03-28 05:34:56
【问题描述】:

我正在创建一个类似于下面提到的模型: model

我正在使用 Keras 创建这样的模型,但由于我无法找到将 SoftMax 添加到 LSTM 单元的输出的方法而陷入了死胡同。到目前为止,所有教程和帮助材料都提供了有关输出单个类的信息,即使在 this link 中提供的图像字幕的情况下也是如此。

那么是否可以将 SoftMax 应用于 LSTM 的每个单元(返回序列为真),还是我必须转移到 pytorch。

【问题讨论】:

  • 如果你能提供一些你尝试过使用的代码会很有帮助

标签: python keras lstm recurrent-neural-network


【解决方案1】:

答案是:是的,可以应用于 LSTM 的每个单元,不,你不必迁移到 PyTorch。

虽然在 Keras 1.X 中您需要明确声明您添加了一个 TimeDistributed 层,但在 Keras 2.X 中您可以只写:

model.add(LSTM(50,activation='relu',return_sequences=False))
model.add(Dense(number_of_classes,activation='softmax'))

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2018-08-16
    • 2023-03-06
    • 2023-03-30
    • 2020-03-23
    • 1970-01-01
    • 1970-01-01
    • 2019-06-11
    • 2019-07-20
    相关资源
    最近更新 更多