【发布时间】:2021-03-24 12:31:48
【问题描述】:
我正在尝试将 PCA 降维应用于 684 x 1800(观察 x 特征)的数据集。我想减少功能的数量。当我执行 PCA 时,它告诉我要获得 100% 的解释方差,应该有 684 个特征,所以我的数据应该是 684 x 684。 是不是太奇怪了?我的意思是,完全相同的数字...
是否有任何解释或我错误地应用了 PCA?
我知道需要 684 个分量来解释整个方差,因为我绘制了 .explained_variance_ratio 的累积总和,它用 684 个分量求和 1。也因为下面的代码。
我的代码基本上是:
pca = PCA(0.99999999999)
pca.fit(data_rescaled)
reduced = pca.transform(data_rescaled)
print(reduced.shape)
print(pca.n_components_)
当然,我不想保留整个方差,95% 也是可以接受的。 这只是一个奇妙的意外吗?
非常感谢
【问题讨论】:
标签: python scikit-learn pca