【发布时间】:2016-02-05 12:24:43
【问题描述】:
我正在尝试使用 Eigen 从 C++ 数据集中计算 2 个主要主成分。
我目前的做法是将[0, 1]之间的数据标准化,然后将平均值居中。之后,我计算协方差矩阵并对其进行特征值分解。我知道 SVD 更快,但我对计算的组件感到困惑。
这是关于我如何做到这一点的主要代码(traindata 是我的 MxN 大小的输入矩阵):
Eigen::VectorXf normalize(Eigen::VectorXf vec) {
for (int i = 0; i < vec.size(); i++) { // normalize each feature.
vec[i] = (vec[i] - minCoeffs[i]) / scalingFactors[i];
}
return vec;
}
// Calculate normalization coefficients (globals of type Eigen::VectorXf).
maxCoeffs = traindata.colwise().maxCoeff();
minCoeffs = traindata.colwise().minCoeff();
scalingFactors = maxCoeffs - minCoeffs;
// For each datapoint.
for (int i = 0; i < traindata.rows(); i++) { // Normalize each datapoint.
traindata.row(i) = normalize(traindata.row(i));
}
// Mean centering data.
Eigen::VectorXf featureMeans = traindata.colwise().mean();
Eigen::MatrixXf centered = traindata.rowwise() - featureMeans;
// Compute the covariance matrix.
Eigen::MatrixXf cov = centered.adjoint() * centered;
cov = cov / (traindata.rows() - 1);
Eigen::SelfAdjointEigenSolver<Eigen::MatrixXf> eig(cov);
// Normalize eigenvalues to make them represent percentages.
Eigen::VectorXf normalizedEigenValues = eig.eigenvalues() / eig.eigenvalues().sum();
// Get the two major eigenvectors and omit the others.
Eigen::MatrixXf evecs = eig.eigenvectors();
Eigen::MatrixXf pcaTransform = evecs.rightCols(2);
// Map the dataset in the new two dimensional space.
traindata = traindata * pcaTransform;
这段代码的结果是这样的:
为了确认我的结果,我对 WEKA 进行了同样的尝试。所以我所做的是按这个顺序使用归一化和中心过滤器。然后主成分过滤并保存+绘制输出。结果是这样的:
从技术上讲,我应该做同样的事情,但结果却如此不同。谁能看看我是不是弄错了?
【问题讨论】:
-
补充一点:我很确定 WEKA 正在使用 SVD。但这不应该解释结果的不同还是?
-
我知道这个问题已经过时了,但是你有没有机会知道你在这个实现中使用了哪篇论文(或其他来源)?
-
我想我只是在 Wikipedia 和通过搜索找到的多个其他页面上查找了它。但不是科学论文。但是,如果您需要更可靠的来源,我相信您可以在大量的数学/统计/数据分析书籍中找到该过程。
-
我确实在寻找这个特定的来源。感谢您的快速回复。