【问题标题】:Dropout on a Dense layerDense 层上的 Dropout
【发布时间】:2022-01-10 16:43:52
【问题描述】:

在 Keras 中,当我们使用input_dim 参数定义我们的第一个隐藏层时,后跟一个 Dropout 层,如下所示:

model.add(Dense(units = 16, activation = 'relu', kernel_initializer = 'random_uniform', input_dim = 5))
model.add(Dropout(0.2))

Dropout 是应用于隐藏层还是输入层?如果它被应用于隐藏,我怎样才能应用于输入,反之亦然?

【问题讨论】:

    标签: keras neural-network dropout


    【解决方案1】:

    Dropout 应用于前一层的输出,因此在这种情况下应用于隐藏层。 如果要将其应用于输入,请添加一个 Dropout 层作为网络中的第一层。

    【讨论】:

    • 我明白了,这让我很困惑,因为在 Keras 文档中说“将 Dropout 应用于输入。”
    • 我认为他们的意思是它会将 dropout 应用于它自己的输入,这通常是前一层的输出。
    猜你喜欢
    • 2019-06-16
    • 2020-12-10
    • 1970-01-01
    • 2018-02-25
    • 1970-01-01
    • 1970-01-01
    • 2019-08-09
    • 2017-09-09
    • 2019-08-09
    相关资源
    最近更新 更多