首先,关于“重要性”的说明。对于模型中包含的每个变量,线性建模包报告该变量的系数不为零的可能性(实际上,它们报告p=1-L)。我们说,如果 L 较大(p 较小),则系数“更显着”。因此,虽然谈论一个变量比另一个变量“更重要”是很合理的,但没有绝对的标准来断言“重要”与“不重要”。在大多数科学研究中,截止值是L>0.95 (p<0.05)。但这完全是武断的,也有很多例外。回想一下,欧洲核子研究中心不愿意断言希格斯玻色子的存在,直到他们收集到足够的数据来证明它对 6-sigma 的影响。这大致对应于 p -9。在另一个极端,许多社会科学研究断言 p
其次,如果您的变量高度相关(在您的情况下就是这样),那么从模型中删除一个变量会极大地改变所有 p 值是很常见的。具有高 p 值(不显着)的保留变量可能突然具有低 p 值(更显着),只是因为您从模型中删除了一个完全不同的变量。因此,尝试手动优化拟合通常是一个坏主意。
幸运的是,有许多算法可以为您做到这一点。一种流行的方法从具有所有变量的模型开始。在每一步中,最不重要的变量都会被删除,并将得到的模型与上一步的模型进行比较。如果删除此变量显着降低模型,则基于某些指标,该过程将停止。一个常用的指标是Akaike information criterion (AIC),在 R 中,我们可以使用 MASS 包中的 stepAIC(...) 基于 AIC 标准优化模型。
第三,回归模型的有效性取决于某些假设,尤其是这两个:误差方差是恒定的(不依赖于 y),并且误差的分布近似正态。如果不满足这些假设,p 值完全没有意义!一旦我们拟合了模型,我们就可以使用残差图和 QQ 图来检查这些假设。 您必须为任何候选模型执行此操作!
最后,异常值的存在经常严重扭曲模型(几乎按照定义!)。如果您的变量高度相关,则此问题会被放大。因此,在您的情况下,查找异常值并查看删除它们后会发生什么情况非常重要。
下面的代码总结了这一切。
library(MASS)
url <- "https://dl.dropboxusercontent.com/s/gh61obgn2jr043y/df.csv?dl=1&token_hash=AAGy0mFtfBEnXwRctgPHsLIaqk5temyrVx_Kd97cjZjf8w&expiry=1399567161"
df <- read.csv(url)
initial.fit <- lm(Y~.,df[,2:ncol(df)]) # fit with all variables (excluding PeriodID)
final.fit <- stepAIC(initial.fit) # best fit based on AIC
par(mfrow=c(2,2))
plot(initial.fit) # diagnostic plots for base model
plot(final.fit) # same for best model
summary(final.fit)
# ...
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) 11.38360 18.25028 0.624 0.53452
# Main1 911.38514 125.97018 7.235 2.24e-10 ***
# Main3 0.04424 0.02858 1.548 0.12547
# Main5 4.99797 1.94408 2.571 0.01195 *
# Main6 0.24500 0.10882 2.251 0.02703 *
# Sec1 150.21703 34.02206 4.415 3.05e-05 ***
# Third2 -0.11775 0.01700 -6.926 8.92e-10 ***
# Third3 -0.04718 0.01670 -2.826 0.00593 **
# ... (many other variables included)
# ---
# Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
#
# Residual standard error: 22.76 on 82 degrees of freedom
# Multiple R-squared: 0.9824, Adjusted R-squared: 0.9779
# F-statistic: 218 on 21 and 82 DF, p-value: < 2.2e-16
par(mfrow=c(2,2))
plot(initial.fit)
title("Base Model",outer=T,line=-2)
plot(final.fit)
title("Best Model (AIC)",outer=T,line=-2)
因此您可以从中看出,基于 AIC 指标的“最佳模型”实际上确实包括 Main 1、3、5 和 6,但不包括 Main 2 和 4。残差图显示不依赖于y(这很好),并且 QQ 图展示了残差的近似正态性(也很好)。另一方面,杠杆图显示几个点(第 33 行和第 85 行)具有极高的杠杆率,而 QQ 图显示这些相同的点和第 47 行的残差与正态分布并不完全一致。所以我们可以重新运行不包括这些行的拟合,如下所示。
initial.fit <- lm(Y~.,df[c(-33,-47,-85),2:ncol(df)])
final.fit <- stepAIC(initial.fit,trace=0)
summary(final.fit)
# ...
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) 27.11832 20.28556 1.337 0.185320
# Main1 1028.99836 125.25579 8.215 4.65e-12 ***
# Main2 2.04805 1.11804 1.832 0.070949 .
# Main3 0.03849 0.02615 1.472 0.145165
# Main4 -1.87427 0.94597 -1.981 0.051222 .
# Main5 3.54803 1.99372 1.780 0.079192 .
# Main6 0.20462 0.10360 1.975 0.051938 .
# Sec1 129.62384 35.11290 3.692 0.000420 ***
# Third2 -0.11289 0.01716 -6.579 5.66e-09 ***
# Third3 -0.02909 0.01623 -1.793 0.077060 .
# ... (many other variables included)
因此,排除这些行会导致所有“主要”变量 p
最后,仅仅因为您有一个模型可以很好地拟合您现有的数据,并不意味着它可以作为预测模型表现良好。特别是,如果您试图在“模型空间”之外进行预测(相当于外推),那么您的预测能力可能很差。