【问题标题】:Compute projection / hat matrix via QR factorization, SVD (and Cholesky factorization?)通过 QR 分解、SVD(和 Cholesky 分解?)计算投影/帽子矩阵
【发布时间】:2012-02-22 16:03:30
【问题描述】:

我正在尝试在 R 中计算任意 N x J 矩阵 S 的投影矩阵 P

P = S (S'S) ^ -1 S'

我一直在尝试使用以下功能来执行此操作:

P <- function(S){
  output <- S %*% solve(t(S) %*% S) %*% t(S)
  return(output)
}

但是当我使用它时,我会得到如下所示的错误:

# Error in solve.default(t(S) %*% S, t(S), tol = 1e-07) : 
#  system is computationally singular: reciprocal condition number = 2.26005e-28

我认为这是数字下溢和/或不稳定的结果,正如在 r-helphere 等许多地方所讨论的那样,但我没有足够的经验使用 SVD 或 QR 分解来解决问题,否则将现有的代码付诸行动。我也试过建议的代码,就是把solve写成一个系统:

output <- S %*% solve (t(S) %*% S, t(S), tol=1e-7)

但还是不行。任何建议将不胜感激。

我很确定我的矩阵应该是可逆的并且没有任何共线性,只是因为我尝试使用正交虚拟变量矩阵对此进行测试,但它仍然不起作用。

另外,我想将此应用于相当大的矩阵,因此我正在寻找一个简洁的通用解决方案。

【问题讨论】:

  • 您是否有不想使用 princomp 或 prcomp 的原因?计算主成分不需要手动完成。
  • 怕没有通用的解决方案,如果是条件号你就有问题了。
  • 嗨,我并没有像实现我读过的估计器那样尝试做 PCA。我觉得奇怪的是,即使对于一个简单的虚拟仪器矩阵,我也无法让它工作,而这似乎保证不共线。
  • 1.你为什么不发布你的S矩阵?还有S'S? 2. 使用“典型”S 矩阵怎么样? 3. 试试 t(S) %*% S 周围的括号?

标签: r regression svd projection-matrix qr-decomposition


【解决方案1】:

虽然OP已经一年多没有活跃了,但我还是决定发布一个答案。我会使用X 而不是S,因为在统计学中,我们经常需要线性回归上下文中的投影矩阵,其中X 是模型矩阵,y 是响应向量,而H = X(X'X)^{-1}X' 是帽子/投影矩阵,以便Hy 给出预测值。

这个答案假设了普通最小二乘的上下文。有关加权最小二乘,请参阅Get hat matrix from QR decomposition for weighted least square regression


概述

solve 基于通用方阵的 LU 分解。对于对称的X'X(应该由crossprod(X)而不是R中的t(X) %*% X计算,更多信息请阅读?crossprod),我们可以使用基于Choleksy分解的chol2inv

但是,三角分解不如QR 分解稳定。这不难理解。如果X 有条件数kappaX'X 将有条件数kappa ^ 2。这可能会导致很大的数值困难。你得到的错误信息:

# system is computationally singular: reciprocal condition number = 2.26005e-28

只是在说这个。 kappa ^ 2 大约是 e-28,比大约 e-16 的机器精度要小得多。使用容差tol = .Machine$double.epsX'X 将被视为秩不足,因此 LU 和 Cholesky 分解将失效。

一般情况下,我们会在这种情况下切换到 SVD 或 QR,但 pivoted Cholesky 分解是另一种选择。

  • SVD 是最稳定的方法,但成本太高;
  • QR 非常稳定,计算成本适中,并且在实践中很常用;
  • Pivoted Cholesky 速度快,具有可接受的稳定性。对于大型矩阵,这是首选。

下面,我将解释所有三种方法。


使用 QR 分解

请注意,投影矩阵是与置换无关的,即,无论我们执行 QR 分解是否有旋转都无关紧要。

在 R 中,qr.default 可以调用 LINPACK 例程 DQRDC 进行非旋转 QR 分解,并调用 LAPACK 例程 DGEQP3 进行块旋转 QR 分解。让我们生成一个玩具矩阵并测试这两个选项:

set.seed(0); X <- matrix(rnorm(50), 10, 5)
qr_linpack <- qr.default(X)
qr_lapack <- qr.default(X, LAPACK = TRUE)

str(qr_linpack)
# List of 4
# $ qr   : num [1:10, 1:5] -3.79 -0.0861 0.3509 0.3357 0.1094 ...
# $ rank : int 5
# $ qraux: num [1:5] 1.33 1.37 1.03 1.01 1.15
# $ pivot: int [1:5] 1 2 3 4 5
# - attr(*, "class")= chr "qr"

str(qr_lapack)
# List of 4
# $ qr   : num [1:10, 1:5] -3.79 -0.0646 0.2632 0.2518 0.0821 ...
# $ rank : int 5
# $ qraux: num [1:5] 1.33 1.21 1.56 1.36 1.09
# $ pivot: int [1:5] 1 5 2 4 3
# - attr(*, "useLAPACK")= logi TRUE
# - attr(*, "class")= chr "qr"

注意$pivot 对于两个对象是不同的。

现在,我们定义一个包装函数来计算QQ'

f <- function (QR) {
  ## thin Q-factor
  Q <- qr.qy(QR, diag(1, nrow = nrow(QR$qr), ncol = QR$rank))
  ## QQ'
  tcrossprod(Q)
  }

我们将看到qr_linpackqr_lapack 给出相同的投影矩阵:

H1 <- f(qr_linpack)
H2 <- f(qr_lapack)

mean(abs(H1 - H2))
# [1] 9.530571e-17

使用奇异值分解

在 R 中,svd 计算奇异值分解。我们仍然使用上面的示例矩阵X

SVD <- svd(X)

str(SVD)
# List of 3
# $ d: num [1:5] 4.321 3.667 2.158 1.904 0.876
# $ u: num [1:10, 1:5] -0.4108 -0.0646 -0.2643 -0.1734 0.1007 ...
# $ v: num [1:5, 1:5] -0.766 0.164 0.176 0.383 -0.457 ...

H3 <- tcrossprod(SVD$u)

mean(abs(H1 - H3))
# [1] 1.311668e-16

同样,我们得到相同的投影矩阵。


使用 Pivoted Cholesky 分解

为了演示,我们还是使用上面的例子X

## pivoted Chol for `X'X`; we want lower triangular factor `L = R'`:
## we also suppress possible rank-deficient warnings (no harm at all!)
L <- t(suppressWarnings(chol(crossprod(X), pivot = TRUE)))

str(L)
# num [1:5, 1:5] 3.79 0.552 -0.82 -1.179 -0.182 ...
# - attr(*, "pivot")= int [1:5] 1 5 2 4 3
# - attr(*, "rank")= int 5

## compute `Q'`
r <- attr(L, "rank")
piv <- attr(L, "pivot")
Qt <- forwardsolve(L, t(X[, piv]), r)

## P = QQ'
H4 <- crossprod(Qt)

## compare
mean(abs(H1 - H4))
# [1] 6.983997e-17

同样,我们得到相同的投影矩阵。

【讨论】:

  • 非常容易解释,尤其是考虑到各种方法。
猜你喜欢
  • 2020-10-22
  • 2013-11-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2020-11-03
  • 2011-10-30
  • 1970-01-01
相关资源
最近更新 更多