【问题标题】:Batch Normalization vs Batch Renormalization批量归一化与批量重归一化
【发布时间】:2019-01-13 22:07:17
【问题描述】:

作为一个没有深厚统计学背景的人,有人可以向我解释一下批量重新规范化旨在解决的批量规范化的主要限制,特别是它与批量规范化的区别吗?

【问题讨论】:

标签: tensorflow machine-learning keras deep-learning batch-normalization


【解决方案1】:

非常简单地说,批次标准化只是将每个批次重新调整为一个共同的均值和偏差。每个批次都是独立缩放的。批次重新归一化包括先前的归一化参数作为新计算的一部分,以便将每个批次归一化为所有批次通用的标准。这渐近地接近全局归一化,防止偏离中心的批次偏离所需中心的训练。

【讨论】:

    猜你喜欢
    • 2018-03-28
    • 2017-08-16
    • 1970-01-01
    • 2020-04-04
    • 1970-01-01
    • 2019-06-16
    • 1970-01-01
    • 2017-08-10
    • 2015-07-10
    相关资源
    最近更新 更多