【发布时间】:2015-08-08 09:24:46
【问题描述】:
我想使用多个预测变量来预测多个因变量。如果我理解正确,原则上可以制作一堆线性回归模型,每个模型都预测一个因变量,但如果因变量相关,则使用多元回归更有意义。我想做后者,但我不知道怎么做。
到目前为止,我还没有找到专门支持此功能的 Python 包。我尝试过 scikit-learn,尽管他们的线性回归模型示例仅显示 y 是一个数组(每个观察一个因变量)的情况,但它似乎能够处理多个 y。但是,当我将这种“多变量”方法的输出与通过手动循环每个因变量并相互独立地预测它们得到的结果进行比较时,结果是完全相同的。我不认为应该是这种情况,因为一些因变量之间存在很强的相关性(>0.5)。
代码看起来像这样,y 可以是n x 1 矩阵或n x m 矩阵,还有x 和newx 各种大小的矩阵(x == n 中的行数)。
ols = linear_model.LinearRegression()
ols.fit(x,y)
ols.predict(newx)
这个函数真的执行多元回归吗?
【问题讨论】:
标签: python machine-learning scikit-learn linear-regression multivariate-testing