【问题标题】:MinMaxScaling vs L1/L2-NormalizationMinMaxScaling 与 L1/L2 归一化
【发布时间】:2020-06-02 03:55:36
【问题描述】:

我想知道不同类型的重新缩放数据的区别或应用。

到目前为止,我知道标准化假设数据具有高斯分布。因此,如果是这种情况,我们应该标准化并获得正态分布 N~(0,1) 中的值。

如果我们的模型没有关于数据分布的假设(如 FCN 或 RandomForestClassifiers,...),并且我们不知道数据分布,或者它不是高斯分布,我们应该对数据进行归一化。但这是我的观点,有几种方法可以标准化,例如使用向量的 L2/L1-Norm(这就是 tensorflow 实现其标准归一化方法的方式)或使用 MinMaxScaling。

那么什么时候推荐使用 L1 或 L2 范数进行归一化,什么时候 MinMaxScaling 是正确的选择?

【问题讨论】:

标签: python tensorflow neural-network statistics data-science


【解决方案1】:

正则化不适用于重新缩放数据。

【讨论】:

  • 为什么你认为 L1 或 L2 这个词意味着正则化? scikit-learn.org/stable/modules/generated/…
  • 对不起,我错了。我认为 MinMaxScaler 是没有异常值的数据的不错选择。如果数据有异常值,最好使用 StandardScaler 或 Normalize。
猜你喜欢
  • 2015-08-06
  • 1970-01-01
  • 1970-01-01
  • 2019-10-26
  • 2015-11-23
  • 2016-05-08
  • 1970-01-01
  • 2017-07-30
  • 1970-01-01
相关资源
最近更新 更多