【问题标题】:why dont we need feature scaling in multiple linear regression [closed]为什么我们不需要在多元线性回归中进行特征缩放[关闭]
【发布时间】:2021-01-21 17:33:18
【问题描述】:

我目前正在学习机器学习 我注意到在多元线性回归中,我们不需要对自变量进行缩放 我不知道为什么?

【问题讨论】:

  • 本网站不适合处理此类问题。你能把你的问题重新定义为一个编码问题吗?
  • 虽然我回答了,但我可以看到@Display name 的意思。也许我们应该把它移到stats.stackexchange.com
  • 欢迎来到SO,这是关于具体编码的问题;关于机器学习理论和方法的非编码问题在这里是题外话,应该发布在Cross Validated。请注意machine-learningtag info中的注意
  • 我投票结束这个问题,因为它不是关于 help center 中定义的编程,而是关于 ML/stats 理论和方法。

标签: machine-learning regression linear-regression


【解决方案1】:

特征缩放是否有用取决于您使用的训练算法。

例如,要找到线性回归模型的最佳参数值,有一个封闭形式的解,称为正态方程。如果您的实现使用该等式,则没有逐步优化过程,因此不需要进行特征缩放。

但是,您也可以使用梯度下降算法找到最佳参数值。如果您有很多训练实例,这在速度方面可能是一个更好的选择。如果使用梯度下降,建议使用特征缩放,否则算法可能需要更长的时间才能收敛。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2014-12-01
    • 2021-09-10
    • 2019-10-15
    • 2014-02-05
    • 2018-01-02
    • 1970-01-01
    • 2016-03-12
    • 1970-01-01
    相关资源
    最近更新 更多