【发布时间】:2019-01-23 18:26:44
【问题描述】:
我想知道 Python 中是否有一个函数可以与scipy.linalg.lstsq 完成相同的工作,但使用“最小绝对偏差”回归而不是“最小二乘”回归 (OLS)。我想使用L1 规范,而不是L2 规范。
事实上,我有 3d 点,我想要它们中最适合的平面。常见的方法是使用最小二乘法,例如 Github link。但是众所周知,这并不总是提供最佳拟合,尤其是当我们的数据集中有闯入者时。最好计算最小的绝对偏差。两种方法的区别更多解释here。
它不能通过诸如 MAD 之类的函数来求解,因为它是一个 Ax = b 矩阵方程,并且需要循环来最小化结果。我想知道是否有人知道 Python 中的相关函数 - 可能在线性代数包中 - 可以计算“最小绝对偏差”回归?
【问题讨论】:
-
@Joel 这似乎不是链接问题的副本。虽然两者都处理 MAD,但这个问题更进一步将其用作优化目标,这不是链接问题的内容。
-
@N.Wouda 这两个问题都询问如何在 Python 中使用 MAD。我链接的问题如何在处理优化目标时“更进一步”?
-
能否请您发布数据链接?
-
@Joel OP 写道“如果 Python 中有一个函数可以与
scipy.linalg.lstsq进行相同的工作,但最小化绝对偏差而不是最小二乘偏差”。这不是sm.robust.mad所做的:它只是计算偏差,而不是优化参数。这就是为什么我觉得这个问题更进一步,因此不应该作为重复关闭。
标签: python machine-learning regression least-squares