【问题标题】:Scaling on Machine Learning Models机器学习模型的扩展
【发布时间】:2021-02-20 15:12:41
【问题描述】:

我对机器学习模型中的缩放概念有些困惑。

在分类中,如果变量的尺度不同,我通常对自变量进行缩放,对目标变量进行标签编码,并对预测结果进行逆变换得到实际标签

在回归中,如果我的变量不同,我知道我们必须缩放自变量,我是否也应该缩放我的目标变量?

如果我的理解在上述情况下是正确的,有人可以帮助我吗?我应该在回归模型中缩放我的目标变量吗?

提前致谢。

【问题讨论】:

    标签: python machine-learning regression classification


    【解决方案1】:

    缩放应该只应用于特征,因为它会对训练过程产生影响,所以当所有特征(自变量)都处于相同(或相似)的比例时,通常训练会更快并且收敛到一个好的解决方案特别是如果您使用的是基于梯度的训练算法,例如 SGD 或 Adam,但对于目标(相关)变量,您不需要缩放,因为您只需添加不会影响分类器质量的额外计算(回归器) ) 你会得到的。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2016-10-27
      • 1970-01-01
      • 2022-12-10
      • 1970-01-01
      • 2020-06-19
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多