【问题标题】:Image mean subtraction vs BatchNormalization - Caffe图像均值减法与 BatchNormalization - Caffe
【发布时间】:2017-05-04 12:26:04
【问题描述】:

我对 Caffe 中的图像预处理有疑问。 当我在我的 caffemodel 中使用 BatchNormalization 层时,在训练阶段开始之前,我是否仍需要对所有训练图像进行预处理步骤“图像均值减法”?还是在 BatchNormalization Layer 中完成的?

非常感谢=)

【问题讨论】:

    标签: image-processing computer-vision batch-processing deep-learning caffe


    【解决方案1】:

    图像均值减法的作用与 BatchNormalization 不同,用于不同的目的。

    BatchNormalization 标准化一个批次而不是每一个图像,并且更多地用于保持数据分布良好并对抗高激活和过度拟合。之后不是每个图像的均值都为 0,但批次的组合均值为 0。只有批量大小为 1 时才相同。

    图像均值减法主要用于对抗输入空间中的光照变化。 http://ufldl.stanford.edu/wiki/index.php/Data_Preprocessing

    根据您的具体示例,您可以通过在输入之后应用批量标准化而不是使用平均减法来获得良好的结果,但您需要对此进行测试。

    【讨论】:

      猜你喜欢
      • 2017-11-25
      • 1970-01-01
      • 2018-07-29
      • 1970-01-01
      • 2015-06-26
      • 2018-01-30
      • 2017-11-30
      • 2018-11-13
      • 2017-05-04
      相关资源
      最近更新 更多