【问题标题】:Ridge regression vs Lasso Regression [closed]岭回归与套索回归[关闭]
【发布时间】:2019-10-11 15:01:47
【问题描述】:

Lasso 回归或 Elastic-net 回归总是优于岭回归吗?

我已经对几个数据集进行了这些回归,并且我总是得到相同的结果,即均方误差在 lasso 回归中最小。这仅仅是巧合还是无论如何都是真的?

【问题讨论】:

  • 我投票结束这个问题,因为它与 help center 中定义的编程无关,而是关于 ML 理论和/或方法 - 请参阅 machine-learning @ 中的介绍和注意事项987654322@.

标签: machine-learning statistics regression lasso-regression


【解决方案1】:

关于这个主题,James、Witten、Hastie 和 Tibshirani 在他们的《统计学习导论》一书中写道:

这两个例子说明岭回归和 套索将普遍支配另一个。一般来说,人们可能会期望 套索在相对较小的环境中表现更好 预测变量的数量具有相当大的系数,其余的 预测变量的系数非常小或为零。 当响应是一个函数时,岭回归会表现得更好 许多预测变量,所有变量的系数都大致相等。然而, 与响应相关的预测变量的数量永远不会 已知数据集的先验知识。交叉验证等技术 可以用来确定哪种方法更好 特定的数据集。 (第 6.2 章)

【讨论】:

    【解决方案2】:

    每个问题都不同。在套索回归中,算法试图删除没有任何用处的额外特征,这听起来更好,因为我们也可以用更少的数据很好地训练,但处理有点困难,但在岭回归中,算法正在尝试使这些额外的功能不太有效,但不会完全删除它们,这样更容易处理。

    【讨论】:

      猜你喜欢
      • 2018-08-01
      • 2020-11-04
      • 2019-07-13
      • 2019-09-17
      • 2018-12-16
      • 2016-10-21
      • 2012-10-07
      • 2018-11-17
      • 2016-06-28
      相关资源
      最近更新 更多