【问题标题】:What is the difference between dropout layer and dropout parameter in any keras layer任何keras层中的dropout层和dropout参数有什么区别
【发布时间】:2019-08-09 14:19:38
【问题描述】:

keras中Dropout层和dropoutrecurrent_droput参数有什么区别?它们的用途都一样吗?

例子:

model.add(Dropout(0.2))  # layer
model.add(LSTM(100, dropout=0.2, recurrent_dropout=0.2))  # parameters

【问题讨论】:

    标签: python keras keras-layer


    【解决方案1】:

    是的,它们具有相同的功能,作为参数的 dropout 用于该层的线性变换(权重相乘和偏置相加)。也可以在激活层之前使用 Dropout 作为层。

    recurrent_dropout 也有相同的功能,但方向不同(通常dropouts在输入和输出之间,在时间戳之间)

    【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2021-03-27
    • 2020-03-04
    • 2018-02-25
    • 2019-05-22
    • 1970-01-01
    • 1970-01-01
    • 2019-11-04
    相关资源
    最近更新 更多